يغادر سام ألتمان، الرئيس التنفيذي لشركة OpenAI، اللجنة الداخلية التي أنشأتها OpenAI في مايو للإشراف على قرارات السلامة “الحاسمة” المتعلقة بمشاريع الشركة وعملياتها.
في منشور مدونة اليوم، قالت OpenAI إن اللجنة، لجنة السلامة والأمن، ستصبح مجموعة إشراف “مستقلة” يرأسها البروفيسور زيكو كولتر من جامعة كارنيجي ميلون، وتضم الرئيس التنفيذي لشركة Quora آدم دانجيلو، والجنرال المتقاعد بالجيش الأمريكي بول ناكاسوني، ونائب الرئيس التنفيذي السابق لشركة Sony نيكول سيليجمان. جميعهم أعضاء حاليون في مجلس إدارة OpenAI.
أشارت OpenAI في منشورها إلى أن اللجنة أجرت مراجعة سلامة لـ o1، أحدث نموذج للذكاء الاصطناعي من OpenAI، بعد تنحي ألتمان. وقالت الشركة إن المجموعة ستستمر في تلقي إحاطات منتظمة من فرق السلامة والأمن في OpenAI، وستحتفظ بالقدرة على تأخير الإصدارات حتى تتم معالجة المخاوف المتعلقة بالسلامة.
وكتبت OpenAI في المنشور: “كجزء من عملها، ستستمر لجنة السلامة والأمن في تلقي تقارير منتظمة حول التقييمات الفنية للنماذج الحالية والمستقبلية، بالإضافة إلى تقارير المراقبة المستمرة بعد الإصدار”. “[W]نحن نعتمد على عمليات وممارسات إطلاق النماذج لدينا لإنشاء إطار متكامل للسلامة والأمن مع معايير نجاح محددة بوضوح لإطلاق النماذج.
ويأتي رحيل ألتمان من لجنة السلامة والأمن بعد أن أثار خمسة من أعضاء مجلس الشيوخ الأمريكي تساؤلات حول سياسات OpenAI في رسالة موجهة إلى ألتمان هذا الصيف. لقد غادر ما يقرب من نصف موظفي OpenAI الذين ركزوا ذات يوم على المخاطر طويلة المدى للذكاء الاصطناعي، واتهم باحثون سابقون في OpenAI ألتمان بمعارضة التنظيم “الحقيقي” للذكاء الاصطناعي لصالح السياسات التي تعزز أهداف شركة OpenAI.
ومن وجهة نظرهم، زادت شركة OpenAI بشكل كبير من نفقاتها على الضغط الفيدرالي، حيث خصصت ميزانية قدرها 800 ألف دولار للأشهر الستة الأولى من عام 2024 مقابل 260 ألف دولار للعام الماضي بأكمله. انضم ألتمان أيضًا في وقت سابق من هذا الربيع إلى مجلس سلامة وأمن الذكاء الاصطناعي التابع لوزارة الأمن الداخلي الأمريكية، والذي يقدم توصيات لتطوير ونشر الذكاء الاصطناعي في جميع أنحاء البنية التحتية الحيوية للولايات المتحدة.
حتى مع إزالة ألتمان، ليس هناك ما يشير إلى أن لجنة السلامة والأمن ستتخذ قرارات صعبة تؤثر بشكل خطير على خريطة الطريق التجارية لـ OpenAI. ومن المثير للاهتمام أن شركة OpenAI قالت في شهر مايو إنها ستتطلع إلى معالجة “الانتقادات الصحيحة” لعملها من خلال اللجنة – “الانتقادات الصحيحة” تقع في عين الناظر بالطبع.
في مقال افتتاحي لمجلة الإيكونوميست في شهر مايو، قال عضوا مجلس إدارة OpenAI السابقان، هيلين تونر وتاشا ماكولي، إنهما لا يعتقدان أن OpenAI كما هي موجودة اليوم يمكن الوثوق بها لمحاسبة نفسها. “[B]وكتبوا: “بناء على تجربتنا، نعتقد أن الحكم الذاتي لا يمكن أن يتحمل بشكل موثوق ضغوط حوافز الربح”.
وتتزايد حوافز الربح لشركة OpenAI.
يشاع أن الشركة في خضم جمع ما يزيد عن 6.5 مليار دولار في جولة تمويل من شأنها أن تقدر قيمة OpenAI بأكثر من 150 مليار دولار. لإبرام الصفقة، يقال إن شركة OpenAI قد تتخلى عن هيكلها المؤسسي الهجين غير الربحي، الذي سعى إلى الحد من عوائد المستثمرين جزئيًا لضمان بقاء OpenAI متسقة مع مهمتها التأسيسية: تطوير الذكاء العام الاصطناعي الذي “يفيد البشرية جمعاء”.
اكتشاف المزيد من موقع شعاع للمعلوماتية
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.