مرحبًا يا رفاق، مرحبًا بكم في النشرة الإخبارية المنتظمة للذكاء الاصطناعي الخاصة بـ TechCrunch.
هذا الأسبوع في مجال الذكاء الاصطناعي، أظهرت دراسة جديدة أن الذكاء الاصطناعي التوليدي ليس ضارًا إلى هذا الحد – على الأقل ليس بالمعنى المروع.
في ورقة بحثية مقدمة إلى المؤتمر السنوي لجمعية اللغويات الحاسوبية، يقول باحثون من جامعة باث وجامعة دارمشتات إن النماذج مثل تلك الموجودة في عائلة ميتا لاما لا يمكنها التعلم بشكل مستقل أو اكتساب مهارات جديدة دون تعليمات واضحة.
أجرى الباحثون آلاف التجارب لاختبار قدرة العديد من النماذج على إكمال المهام التي لم تصادفهم من قبل، مثل الإجابة على أسئلة حول موضوعات كانت خارج نطاق بيانات التدريب الخاصة بهم. ووجدوا أنه على الرغم من قدرة النماذج على اتباع التعليمات بشكل سطحي، إلا أنهم لم يتمكنوا من إتقان مهارات جديدة بمفردهم.
وقال هاريش طيار مادابوشي، عالم الكمبيوتر في جامعة باث والمؤلف المشارك في الدراسة: “تظهر دراستنا أن الخوف من أن يختفي النموذج ويفعل شيئًا غير متوقع تمامًا ومبتكرًا ومن المحتمل أن يكون خطيرًا، ليس صحيحًا”. بيان. “إن السرد السائد بأن هذا النوع من الذكاء الاصطناعي يشكل تهديدًا للإنسانية يمنع اعتماد هذه التقنيات وتطويرها على نطاق واسع، كما يحول الانتباه عن القضايا الحقيقية التي تتطلب تركيزنا.”
هناك قيود على الدراسة. لم يختبر الباحثون أحدث النماذج وأكثرها قدرة من بائعين مثل OpenAI وAnthropic، وتميل نماذج القياس إلى أن تكون علمًا غير دقيق. لكن هذا البحث ليس الأول من نوعه الذي وجد أن تكنولوجيا الذكاء الاصطناعي التوليدية اليوم لا تشكل تهديدًا للإنسانية – وأن افتراض خلاف ذلك يخاطر بصنع سياسات مؤسفة.
في مقالة افتتاحية في مجلة ساينتفيك أمريكان العام الماضي، أكد عالم أخلاقيات الذكاء الاصطناعي أليكس هانا وأستاذ اللغويات إميلي بندر أن مختبرات الذكاء الاصطناعي للشركات تخطئ في توجيه الاهتمام التنظيمي إلى سيناريوهات خيالية تنهي العالم باعتبارها حيلة مناورة بيروقراطية. وأشاروا إلى ظهور سام ألتمان، الرئيس التنفيذي لشركة OpenAI، في جلسة استماع بالكونجرس في مايو 2023، والتي اقترح خلالها – دون دليل – أن أدوات الذكاء الاصطناعي التوليدية يمكن أن تسير “بشكل خاطئ تمامًا”.
وكتب هانا وبندر: “يجب على الهيئات العامة والتنظيمية ألا تقع فريسة لهذه المناورة”. “بدلاً من ذلك، يجب علينا أن ننظر إلى العلماء والناشطين الذين يمارسون مراجعة الأقران والذين عارضوا الضجيج حول الذكاء الاصطناعي في محاولة لفهم آثاره الضارة هنا والآن.”
تعتبر نقاطهم ونقاط مادابوشي نقاطًا رئيسية يجب أخذها في الاعتبار مع استمرار المستثمرين في ضخ المليارات في الذكاء الاصطناعي التوليدي وتقترب دورة الضجيج من ذروتها. هناك الكثير على المحك بالنسبة للشركات التي تدعم تكنولوجيا الذكاء الاصطناعي التوليدي، وما هو جيد بالنسبة لهم – ولمؤيديهم – ليس بالضرورة مفيدًا لبقيتنا.
قد لا يتسبب الذكاء الاصطناعي التوليدي في انقراضنا. لكنه ضار بالفعل بطرق أخرى – انظر انتشار المواد الإباحية العميقة غير التوافقية، والاعتقالات غير المشروعة للتعرف على الوجه، وجحافل من معلقي البيانات الذين يتقاضون أجورًا زهيدة. ونأمل أن يرى صناع السياسات هذا أيضاً ويشاركونهم وجهة النظر هذه، أو أن يتوصلوا إلى رأي مماثل في نهاية المطاف. إذا لم يكن الأمر كذلك، فقد يكون لدى البشرية ما تخشاه.
أخبار
جوجل الجوزاء والذكاء الاصطناعي، يا إلهي: انعقد حدث الأجهزة السنوي لشركة Google Made By Google يوم الثلاثاء، وأعلنت الشركة عن عدد كبير من التحديثات لمساعد Gemini الخاص بها – بالإضافة إلى الهواتف الجديدة وسماعات الأذن والساعات الذكية. تحقق من تقرير TechCrunch للحصول على أحدث التغطية.
دعوى حقوق الطبع والنشر للذكاء الاصطناعي تمضي قدمًا: يمكن للدعوى القضائية الجماعية التي رفعها الفنانون الذين يزعمون أن Stability AI وRunway AI وDeviantArt قاموا بتدريب الذكاء الاصطناعي الخاص بهم بشكل غير قانوني على الأعمال المحمية بحقوق الطبع والنشر، أن تمضي قدمًا، ولكن جزئيًا فقط، قرر القاضي الذي يرأس الجلسة يوم الاثنين. وفي حكم مختلط، تم رفض العديد من مطالبات المدعين بينما نجا آخرون، مما يعني أن الدعوى قد تنتهي في المحاكمة.
مشاكل X وGrok: تم استهداف X، منصة التواصل الاجتماعي المملوكة لشركة Elon Musk، بسلسلة من شكاوى الخصوصية بعد أن ساعدت نفسها على بيانات المستخدمين في الاتحاد الأوروبي لتدريب نماذج الذكاء الاصطناعي دون طلب موافقة الناس. وافق X على إيقاف معالجة بيانات الاتحاد الأوروبي لتدريب Grok – في الوقت الحالي.
يوتيوب يختبر العصف الذهني لبرج الجوزاء: يختبر YouTube التكامل مع Gemini لمساعدة منشئي المحتوى في طرح أفكار الفيديو والعناوين والصور المصغرة. هذه الميزة التي يطلق عليها Brainstorm with Gemini متاحة حاليًا فقط لاختيار منشئي المحتوى كجزء من تجربة صغيرة ومحدودة.
يقوم GPT-4o من OpenAI بأشياء غريبة: يعد OpenAI’s GPT-4o أول نموذج للشركة يتم تدريبه على البيانات الصوتية والنصية والصورة. وهذا ما يدفعه إلى التصرف بطرق غريبة في بعض الأحيان، مثل تقليد صوت الشخص الذي يتحدث إليه أو الصراخ بشكل عشوائي في منتصف المحادثة.
ورقة بحثية للأسبوع
هناك الكثير من الشركات التي تقدم أدوات تدعي أنها يمكنها اكتشاف النص المكتوب بواسطة نموذج الذكاء الاصطناعي التوليدي بشكل موثوق، والذي قد يكون مفيدًا، على سبيل المثال، في مكافحة المعلومات الخاطئة والانتحال. ولكن عندما اختبرناها منذ فترة، نادرًا ما كانت الأدوات تعمل. وتشير دراسة جديدة إلى أن الوضع لم يتحسن كثيرًا.
صمم الباحثون في UPenn مجموعة بيانات ولوحة رائدة، كاشف الذكاء الاصطناعي القوي (RAID)، الذي يضم أكثر من 10 ملايين وصفة تم إنشاؤها ومكتوبة بواسطة الذكاء الاصطناعي، ومقالات إخبارية، ومنشورات مدونات، والمزيد لقياس أداء أجهزة كشف النصوص المستندة إلى الذكاء الاصطناعي. ووجدوا أن أجهزة الكشف التي قيموها “عديمة الفائدة في الغالب” (على حد تعبير الباحثين)، ولا تعمل إلا عند تطبيقها على حالات استخدام محددة ونص مشابه للنص الذي تم تدريبهم عليه.
“إذا كانت الجامعات أو المدارس تعتمد على كاشف مدرب بشكل ضيق لرصد استخدام الطلاب له [generative AI] وقال كريس كاليسون-بورش، أستاذ علوم الكمبيوتر والمعلومات والمؤلف المشارك في الدراسة، في بيان: “إذا كتبوا واجبات، فقد يتهمون الطلاب زوراً بالغش في حين أنهم لا يفعلون ذلك”. “وقد يفتقدون أيضًا الطلاب الذين كانوا يغشون باستخدام أدوات أخرى [generative AI] لتوليد واجباتهم المدرسية.”
يبدو أنه لا يوجد حل سحري عندما يتعلق الأمر باكتشاف النص باستخدام الذكاء الاصطناعي، فالمشكلة مستعصية على الحل.
يقال إن OpenAI نفسها طورت أداة جديدة للكشف عن النص لنماذج الذكاء الاصطناعي الخاصة بها – وهو تحسن مقارنة بالمحاولة الأولى للشركة – ولكنها رفضت إطلاقها بسبب مخاوف من أنها قد تؤثر بشكل غير متناسب على المستخدمين غير الناطقين باللغة الإنجليزية وتصبح غير فعالة من خلال تعديلات طفيفة في نص. (على المستوى الأقل من الناحية الخيرية، يُقال أيضًا أن شركة OpenAI تشعر بالقلق بشأن كيفية تأثير كاشف النص المدمج في الذكاء الاصطناعي على إدراك – واستخدام – منتجاتها.)
نموذج الاسبوع
يبدو أن الذكاء الاصطناعي التوليدي مفيد لأكثر من مجرد الميمات. يقوم باحثو معهد ماساتشوستس للتكنولوجيا بتطبيقه لتحديد المشاكل في الأنظمة المعقدة مثل توربينات الرياح.
قام فريق من مختبر علوم الكمبيوتر والذكاء الاصطناعي التابع لمعهد ماساتشوستس للتكنولوجيا بتطوير إطار عمل، يسمى SigLLM، يتضمن مكونًا لتحويل بيانات السلاسل الزمنية – القياسات التي يتم أخذها بشكل متكرر مع مرور الوقت – إلى مدخلات مستندة إلى نص يمكن لنموذج الذكاء الاصطناعي التوليدي معالجتها. يمكن للمستخدم تغذية النموذج بهذه البيانات المعدة ومطالبته بالبدء في تحديد الحالات الشاذة. يمكن أيضًا استخدام النموذج للتنبؤ بنقاط بيانات السلاسل الزمنية المستقبلية كجزء من خط أنابيب الكشف عن الحالات الشاذة.
الإطار لم يعمل بشكل استثنائي جيدا في تجارب الباحثين. ولكن إذا كان من الممكن تحسين أدائه، فيمكن لـ SigLLM، على سبيل المثال، مساعدة الفنيين على تحديد المشكلات المحتملة في المعدات مثل الآلات الثقيلة قبل حدوثها.
“نظرًا لأن هذا هو التكرار الأول فقط، لم نتوقع الوصول إلى هناك من البداية، ولكن هذه النتائج تظهر أن هناك فرصة هنا للاستفادة منها [generative AI models] وقالت سارة النغيمش، طالبة الدراسات العليا في الهندسة الكهربائية وعلوم الكمبيوتر والمؤلفة الرئيسية لورقة بحثية عن SigLLM، في بيان لها: “لمهام الكشف عن الحالات الشاذة المعقدة”.
الاستيلاء على حقيبة
قامت OpenAI بترقية ChatGPT، منصة الدردشة الآلية المدعومة بالذكاء الاصطناعي، إلى نموذج أساسي جديد هذا الشهر – لكنها لم تصدر أي سجل تغيير (حسنًا، بالكاد سجل تغيير).
إذن ماذا تفعل به؟ ماذا يستطيع واحد جعل منه، بالضبط؟ لا يوجد شيء يمكن الاستمرار فيه سوى الأدلة القصصية من الاختبارات الذاتية.
أعتقد أن إيثان موليك، الأستاذ في وارتون الذي يدرس الذكاء الاصطناعي والابتكار والشركات الناشئة، كان لديه الرأي الصحيح. من الصعب كتابة ملاحظات الإصدار لنماذج الذكاء الاصطناعي التوليدية لأن النماذج “تشعر” بأنها مختلفة في تفاعل واحد عن الآخر؛ إنهم يعتمدون إلى حد كبير على المشاعر. وفي الوقت نفسه، يستخدم الأشخاص ChatGPT ويدفعون مقابله. ألا يستحقون أن يعرفوا ما الذي يتورطون فيه؟
من الممكن أن تكون التحسينات تدريجية، وتعتقد OpenAI أنه من غير الحكمة الإشارة إلى ذلك لأسباب تنافسية. من غير المرجح أن يكون النموذج مرتبطًا بطريقة أو بأخرى بالاختراقات المنطقية التي أبلغت عنها شركة OpenAI. بغض النظر، عندما يتعلق الأمر بالذكاء الاصطناعي، يجب أن تكون الشفافية أولوية. لا يمكن أن تكون هناك ثقة بدونها، وقد فقدت شركة OpenAI الكثير من تلك الثقة بالفعل.
اكتشاف المزيد من موقع شعاع للمعلوماتية
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.