أعلنت شركة OpenAI عن تعيين جديد في مجلس إدارتها: Zico Kolter.
كولتر، أستاذ ومدير قسم التعلم الآلي في جامعة كارنيجي ميلون، يركز أبحاثه في الغالب على سلامة الذكاء الاصطناعي. وهذا يجعله “مديرًا فنيًا لا يقدر بثمن لـ [OpenAI’s] “الحوكمة”، كتبت OpenAI في منشور على مدونتها الرسمية.
لقد كانت سلامة الذكاء الاصطناعي مشكلة كبيرة في الشركة. ويأتي تعيين كولتر بعد أشهر قليلة من مغادرة العديد من المديرين التنفيذيين والموظفين البارزين في OpenAI الذين يركزون على السلامة، بما في ذلك المؤسس المشارك Ilya Sutskever، للشركة. جاءت العديد من هذه الاستقالات من فريق Sutskever السابق “Superalignment”، والذي كان يركز على طرق التحكم في أنظمة الذكاء الاصطناعي “فائقة الذكاء”، ولكن يقول أحد المصادر إنه مُنع من الوصول إلى موارد الحوسبة التي وعد بها في الأصل.
سينضم كولتر أيضًا إلى لجنة السلامة والأمن التابعة لمجلس إدارة OpenAI إلى جانب المديرين بريت تايلور وآدم دانجيلو وبول ناكاسوني ونيكول سيليجمان والرئيس التنفيذي سام ألتمان وخبراء تقنيين في OpenAI. اللجنة مسؤولة عن تقديم توصيات بشأن قرارات السلامة والأمن لجميع مشاريع OpenAI – ولكن، كما أشرنا في مقال في شهر مايو، فهي تتكون في الغالب من المطلعين على بواطن الأمور، مما أثار تساؤلات بين النقاد حول فعاليتها.
وقال تايلور، رئيس مجلس إدارة OpenAI، في بيان: “يضيف زيكو فهمًا تقنيًا عميقًا ومنظورًا لسلامة الذكاء الاصطناعي وقوته مما سيساعدنا على ضمان أن الذكاء الاصطناعي العام يفيد البشرية جمعاء.”
كولتر، كبير علماء البيانات سابقًا في C3.ai، أكمل درجة الدكتوراه. حصل على درجة الدكتوراه في علوم الكمبيوتر من جامعة ستانفورد في عام 2010، تليها زمالة ما بعد الدكتوراه في معهد ماساتشوستس للتكنولوجيا من عام 2010 إلى عام 2012. ويتضمن بحثه إظهار إمكانية تجاوز ضمانات الذكاء الاصطناعي الحالية من خلال تقنيات التحسين الآلية.
ليس غريبًا على التعاون في الصناعة، يشغل كولتر حاليًا منصب “كبير الخبراء” في شركة Bosch والمستشار الفني الرئيسي في شركة Gray Swan الناشئة للذكاء الاصطناعي.
اكتشاف المزيد من موقع شعاع للمعلوماتية
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.