انتقل باحث سياسة سابقين رفيع المستوى ، مايلز بروندج ، إلى وسائل التواصل الاجتماعي يوم الأربعاء لانتقاد Openai بسبب “إعادة كتابة التاريخ” لنهج النشر لأنظمة الذكاء الاصطناعى المحفوفة بالمخاطر.
في وقت سابق من هذا الأسبوع ، نشرت Openai وثيقة تحدد فلسفتها الحالية حول سلامة ومواءمة الذكاء الاصطناعي ، وهي عملية تصميم أنظمة الذكاء الاصطناعى التي تتصرف بطرق مرغوبة وتفسير. في الوثيقة ، قال Openai إنه يرى تطور AGI ، الذي يُعرّف على نطاق واسع بأنه أنظمة AI التي يمكن أن تؤدي أي مهمة يمكن للإنسان ، “مسارًا مستمرًا” يتطلب “نشرًا وتتعلمًا بشكل تكراري” من تقنيات الذكاء الاصطناعي.
“في عالم متقطع […] تأتي دروس السلامة من معالجة أنظمة اليوم بحذر كبير بالنسبة لقوتها الواضحة ، [which] هو النهج الذي اتبعناه [our AI model] GPT – 2 ، “كتب Openai. “نعتبر الآن أول AGI على أنه نقطة واحدة فقط على طول سلسلة من أنظمة الفائدة المتزايدة […] في العالم المستمر ، فإن طريقة جعل النظام التالي آمنًا ومفيدًا هو التعلم من النظام الحالي. “
لكن Brundage يدعي أن GPT-2 ، في الواقع ، يضمن توخي الحذر الوفير في وقت صدوره ، وأن هذا كان “ثابتًا بنسبة 100 ٪” مع استراتيجية النشر التكرارية لـ Openai اليوم.
“إصدار Openai لـ GPT-2 ، الذي شاركت فيه ، كان ثابتًا بنسبة 100 ٪ [with and] كتب Brundage في منشور على X. شكرنا العديد من خبراء الأمن في ذلك الوقت على هذا الحذر. “
كان Brundage ، الذي انضم إلى Openai كعالم أبحاث في عام 2018 ، رئيس أبحاث السياسات في الشركة لعدة سنوات. في فريق Openai “AGI Respiness” ، كان له تركيز خاص على النشر المسؤول لأنظمة توليد اللغة مثل Openai من منصة chatbot من Openai.
كان GPT-2 ، الذي أعلن Openai في عام 2019 ، سلفًا لأنظمة الذكاء الاصطناعى التي تعمل على تشغيل ChatGPT. يمكن لـ GPT-2 الإجابة على أسئلة حول موضوع ما ، وتلخيص المقالات ، وإنشاء نص على مستوى لا يمكن تمييزه أحيانًا عن تلك الموجودة في البشر.
على الرغم من أن GPT-2 ومخرجاته قد تبدو أساسية اليوم ، إلا أنها كانت متطورة في ذلك الوقت. نقلاً عن خطر الاستخدام الضار ، رفض Openai في البداية إصدار رمز مصدر GPT-2 ، واختار بدلاً من ذلك إعطاء وصول محدود للوصول إلى العرض التوضيحي.
قوبل القرار بتعليقات مختلطة من صناعة الذكاء الاصطناعي. جادل العديد من الخبراء بأن التهديد الذي تشكله GPT-2 كان مبالغًا فيه ، وأنه لم يكن هناك أي دليل على أنه يمكن إساءة استخدام النموذج بالطرق التي وصفها Openai. منشور يركز على الذكاء الاصطناعى ، ذهب التدرج إلى حد نشر خطاب مفتوح يطلب إصدار Openai النموذج ، بحجة أنه من المهم للغاية من الناحية التكنولوجية كبح.
أصدر Openai في النهاية إصدارًا جزئيًا من GPT-2 بعد ستة أشهر من كشف النقاب عن الطراز ، يليه النظام الكامل بعد عدة أشهر من ذلك. بروندج يعتقد أن هذا هو النهج الصحيح.
“أي جزء من [the GPT-2 release] هل كان الدافع وراءه أو يعتمد على التفكير في AGI على أنه متقطع؟ قال في أحد المنشورات على X. “ما هو الدليل على أن هذا الحذر كان” غير متناسب “؟ على سبيل المثال ، prob. كان على ما يرام ، لكن هذا لا يعني أنه كان مسؤولاً عن ذلك [sic] معطى المعلومات في ذلك الوقت. “
يخشى Brundage من أن هدف Openai مع الوثيقة هو إنشاء عبء إثبات حيث “المخاوف مثيرة للقلق” و “أنت بحاجة إلى أدلة ساحقة على مخاطر وشيكة للعمل عليها”. ويقول إن هذا عقلية “خطيرة للغاية” لأنظمة الذكاء الاصطناعى المتقدمة.
“إذا كنت لا أزال أعمل في Openai ، فسأسأل عن سبب هذا [document] وأضاف بروندج:
تم اتهام Openai تاريخياً بإعطاء الأولوية “المنتجات اللامعة” على حساب السلامة ، وإصدارات المنتجات المتسارعة للتغلب على الشركات المتنافسة للتسويق. في العام الماضي ، حلت Openai بفريق AGI للاستعداد ، وغادرت سلسلة من الباحثين في مجال السلامة والسياسات الذكاء الاصطناعي الشركة للمنافسين.
لقد ارتفعت الضغوط التنافسية فقط. استحوذت AI Lab Deepseek على انتباه العالم من خلال نموذج R1 المتاح علانية ، والذي تطابق نموذج Openai O1 “التفكير” على عدد من المعايير الرئيسية. اعترف الرئيس التنفيذي لشركة Openai Sam Altman بأن Deepseek قد قلل من الصدارة التكنولوجية لـ Openai ، وقال إن Openai “سوف” يسحب بعض الإصدارات “للتنافس بشكل أفضل.
هناك الكثير من المال على الخط. تفقد Openai مليارات الدولارات سنويًا ، وتوقعت الشركة أن تخسرها السنوي قد تصل ثلاثية إلى 14 مليار دولار بحلول عام 2026. يمكن لدورة إطلاق المنتج أسرع أن تستفيد من Openai على المدى القائم على المدى القريب ، ولكن على حساب السلامة على المدى الطويل. يتساءل خبراء مثل Brundage عما إذا كانت المفاضلة تستحق ذلك.
اكتشاف المزيد من موقع شعاع للمعلوماتية
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.