في شهر فبراير الماضي، أوقفت شركة جوجل مؤقتًا قدرة برنامج الدردشة Gemini الذي يعمل بالذكاء الاصطناعي على إنشاء صور للأشخاص بعد أن اشتكى المستخدمون من عدم الدقة التاريخية. على سبيل المثال، عندما يُطلب من الجوزاء أن يصور “الفيلق الروماني”، فإنه سيُظهر مجموعة عفا عليها الزمن من الجنود المتنوعين عرقيًا بينما يقدم “محاربي الزولو” على أنهم سود بشكل نمطي.
واعتذر ساندر بيتشاي، الرئيس التنفيذي لشركة جوجل، وقال ديميس هاسابيس، المؤسس المشارك لقسم أبحاث الذكاء الاصطناعي في جوجل، ديب مايند، إن الإصلاح يجب أن يصل “في وقت قصير جدًا” – في غضون الأسبوعين المقبلين. ولكننا الآن في شهر مايو/أيار، ولا يزال الإصلاح الموعود بعيد المنال.
روجت جوجل للكثير من ميزات Gemini الأخرى في مؤتمر I/O السنوي للمطورين هذا الأسبوع، بدءًا من برامج الدردشة المخصصة إلى مخطط رحلات العطلات والتكامل مع تقويم Google وKeep وYouTube Music. لكن إنشاء الصور للأشخاص لا يزال متوقفًا في تطبيقات Gemini على الويب والهاتف المحمول، حسبما أكد متحدث باسم Google.
إذن ما هو التعطيل؟ حسنًا، من المحتمل أن تكون المشكلة أكثر تعقيدًا مما ألمح إليه هاسابيس.
تحتوي مجموعات البيانات المستخدمة لتدريب مولدات الصور مثل مجموعة جيميني بشكل عام على صور للأشخاص البيض أكثر من الأشخاص من الأعراق والأعراق الأخرى، كما أن صور الأشخاص غير البيض في مجموعات البيانات هذه تعزز الصور النمطية السلبية. قامت جوجل، في محاولة واضحة لتصحيح هذه التحيزات، بتطبيق تشفير أخرق تحت الغطاء. وهي الآن تناضل من أجل إيجاد طريق وسط معقول يتجنب تكرار التاريخ.
هل ستصل جوجل إلى هناك؟ ربما. ربما لا. على أية حال، فإن هذه القضية التي طال أمدها هي بمثابة تذكير بأنه ليس من السهل حل مشكلة سوء تصرف الذكاء الاصطناعي – خاصة عندما يكون التحيز هو السبب الجذري لسوء السلوك.
نحن نطلق نشرة إخبارية تعتمد على الذكاء الاصطناعي! اشتراك هنا لبدء استلامها في صناديق البريد الوارد الخاصة بك في 5 يونيو.
اكتشاف المزيد من موقع شعاع للمعلوماتية
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.