مرحبًا يا رفاق، مرحبًا بكم في النشرة الإخبارية المنتظمة للذكاء الاصطناعي الخاصة بـ TechCrunch.
أعلن الرئيس جو بايدن، الأحد الماضي، أنه لم يعد يعتزم الترشح لإعادة انتخابه، وبدلاً من ذلك قدم “تأييده الكامل” لنائبة الرئيس كامالا هاريس لتصبح مرشحة الحزب الديمقراطي؛ وفي الأيام التالية، حصلت هاريس على دعم أغلبية المندوبين الديمقراطيين.
كان هاريس صريحًا فيما يتعلق بسياسة التكنولوجيا والذكاء الاصطناعي. إذا فازت بالرئاسة، فماذا يعني ذلك بالنسبة لتنظيم الذكاء الاصطناعي في الولايات المتحدة؟
كتب زميلي أنتوني ها بضع كلمات حول هذا الموضوع خلال عطلة نهاية الأسبوع. وقال هاريس والرئيس بايدن في وقت سابق إنهما “يرفضان الاختيار الخاطئ الذي يشير إلى أنه يمكننا إما حماية الجمهور أو تعزيز الابتكار”. في ذلك الوقت، أصدر بايدن أمرًا تنفيذيًا يدعو الشركات إلى وضع معايير جديدة حول تطوير الذكاء الاصطناعي. قال هاريس إن الالتزامات الطوعية كانت “خطوة أولية نحو مستقبل أكثر أمانًا للذكاء الاصطناعي مع المزيد في المستقبل” لأنه “في غياب التنظيم والرقابة الحكومية القوية، تختار بعض شركات التكنولوجيا إعطاء الأولوية للربح على رفاهية عملائها، سلامة مجتمعاتنا واستقرار ديمقراطياتنا”.
لقد تحدثت أيضًا مع خبراء سياسة الذكاء الاصطناعي للحصول على آرائهم. بالنسبة للجزء الأكبر، قالوا إنهم يتوقعون الاتساق مع إدارة هاريس، بدلاً من تفكيك سياسة الذكاء الاصطناعي الحالية وإلغاء القيود العامة التي دافع عنها معسكر دونالد ترامب.
وقال لي تيدريش، مستشار الذكاء الاصطناعي في الشراكة العالمية للذكاء الاصطناعي، لـ TechCrunch إن تأييد بايدن لهاريس يمكن أن “يزيد من فرص الحفاظ على الاستمرارية” في سياسة الذكاء الاصطناعي الأمريكية. “[This is] وقالت: “إننا ندرك أن هذا هو ما يحدده الأمر التنفيذي لمنظمة العفو الدولية لعام 2023، كما يتميز أيضًا بالتعددية من خلال الأمم المتحدة ومجموعة السبع ومنظمة التعاون الاقتصادي والتنمية ومنظمات أخرى”. “يدعو الأمر التنفيذي والإجراءات ذات الصلة أيضًا إلى مزيد من الرقابة الحكومية على الذكاء الاصطناعي، بما في ذلك من خلال زيادة الإنفاذ، وزيادة قواعد وسياسات الذكاء الاصطناعي للوكالة، والتركيز على السلامة وبعض الاختبارات الإلزامية والإفصاحات لبعض أنظمة الذكاء الاصطناعي الكبيرة.”
أشارت سارة كريبس، أستاذة الحكومة في جامعة كورنيل والمهتمة بشكل خاص بالذكاء الاصطناعي، إلى أن هناك تصورًا داخل قطاعات معينة من صناعة التكنولوجيا بأن إدارة بايدن اتجهت بقوة إلى التنظيم وأن الأمر التنفيذي للذكاء الاصطناعي كان “مبالغة في الإدارة الدقيقة”. إنها لا تتوقع أن يتراجع هاريس عن أي من بروتوكولات سلامة الذكاء الاصطناعي التي تم وضعها في عهد بايدن، لكنها تتساءل عما إذا كانت إدارة هاريس قد تتخذ نهجًا تنظيميًا أقل من أعلى إلى أسفل لتهدئة النقاد.
تتفق كريستال كوفمان، زميلة الأبحاث في معهد أبحاث الذكاء الاصطناعي الموزع، مع كريبس وتيدريش على أن هاريس سيواصل على الأرجح عمل بايدن لمعالجة المخاطر المرتبطة باستخدام الذكاء الاصطناعي والسعي إلى زيادة الشفافية حول الذكاء الاصطناعي. ومع ذلك، فهي تأمل، في حالة فوز هاريس بالانتخابات الرئاسية، أن تقوم بإلقاء شبكة أوسع من أصحاب المصلحة في صياغة السياسة – وهي شبكة تلتقط العاملين في مجال البيانات الذين غالبًا ما لا يتم الاعتراف بمحنتهم (تدني الأجور وظروف العمل السيئة وتحديات الصحة العقلية).
وقال كوفمان: “يجب على هاريس أن يضم أصوات العاملين في مجال البيانات الذين يساعدون في برمجة الذكاء الاصطناعي في هذه المحادثات المهمة في المستقبل”. “لا يمكننا الاستمرار في رؤية اجتماعات مغلقة مع الرؤساء التنفيذيين للتكنولوجيا كوسيلة لوضع السياسات. وهذا بالتأكيد سيأخذنا إلى الطريق الخاطئ إذا استمر”.
أخبار
تطلق Meta نماذج جديدة: أصدرت Meta هذا الأسبوع Llama 3.1 405B، وهو نموذج لإنشاء النص وتحليله يحتوي على 405 مليار معلمة. أكبر نموذج “مفتوح” حتى الآن، Llama 3.1 405B يشق طريقه إلى العديد من منصات وتطبيقات Meta، بما في ذلك تجربة Meta AI عبر Facebook وInstagram وMessenger.
يقوم Adobe بتحديث Firefly: أصدرت Adobe أدوات Firefly جديدة لبرنامجي Photoshop وIllustrator يوم الثلاثاء، مما يوفر لمصممي الجرافيك المزيد من الطرق لاستخدام نماذج الذكاء الاصطناعي الداخلية للشركة.
التعرف على الوجه في المدرسة: تم توبيخ مدرسة إنجليزية رسميًا من قبل هيئة تنظيم حماية البيانات في المملكة المتحدة بعد أن استخدمت تقنية التعرف على الوجه دون الحصول على موافقة محددة من الطلاب لمعالجة عمليات فحص الوجه الخاصة بهم.
Cohere يجمع نصف مليار دولار: قامت شركة Cohere، وهي شركة ناشئة تعمل في مجال الذكاء الاصطناعي والتي شارك في تأسيسها باحثون سابقون في Google، بجمع 500 مليون دولار نقدًا جديدًا من المستثمرين، بما في ذلك Cisco وAMD. على عكس العديد من منافسيها في مجال الذكاء الاصطناعي الناشئ، تقوم شركة Cohere بتخصيص نماذج الذكاء الاصطناعي للمؤسسات الكبيرة – وهو عامل رئيسي في نجاحها.
مقابلة مدير وكالة المخابرات المركزية لمنظمة العفو الدولية: كجزء من سلسلة “النساء في الذكاء الاصطناعي” التي تقدمها TechCrunch، أجريت مقابلة حقيقية مع لاكشمي رامان، مدير الذكاء الاصطناعي في وكالة المخابرات المركزية. تحدثنا عن طريقها إلى منصب المدير وكذلك استخدام وكالة المخابرات المركزية للذكاء الاصطناعي، والتوازن الذي يجب تحقيقه بين تبني التكنولوجيا الجديدة ونشرها بشكل مسؤول.
ورقة بحثية للأسبوع
هل سمعت عن المحول؟ إنها بنية نموذج الذكاء الاصطناعي المفضلة لمهام الاستدلال المعقدة، وتعمل على تشغيل نماذج مثل OpenAI’s GPT-4o وAnthropic’s Claude وغيرها الكثير. ولكن، على الرغم من قوة المحولات، إلا أن لها عيوبها. ولذا يقوم الباحثون بالتحقيق في البدائل الممكنة.
واحدة من أكثر النماذج الواعدة هي نماذج الفضاء الحكومية (SSM)، التي تجمع بين صفات العديد من الأنواع القديمة من نماذج الذكاء الاصطناعي، مثل الشبكات العصبية المتكررة والشبكات العصبية التلافيفية، لإنشاء بنية أكثر كفاءة من الناحية الحسابية قادرة على استيعاب تسلسلات طويلة من البيانات. (فكر في الروايات والأفلام). وأحد أقوى تجسيدات صواريخ أرض-أرض حتى الآن، مامبا-2، تم تفصيله في ورقة بحثية هذا الشهر من قبل علماء الأبحاث تري داو (أستاذ في جامعة برينستون) وألبرت جو (كارنيجي ميلون).
مثل سابقتها Mamba، يمكن لـ Mamba-2 التعامل مع أجزاء أكبر من بيانات الإدخال مقارنة بنظيراتها القائمة على المحولات مع الحفاظ على قدرتها التنافسية، من حيث الأداء، مع النماذج القائمة على المحولات في بعض مهام توليد اللغة. ويشير داو وجو إلى أنه إذا استمرت وحدات الخدمة الذاتية في التحسن، فإنها ستعمل يومًا ما على أجهزة سلعية – وستوفر تطبيقات ذكاء اصطناعي أكثر قوة مما هو ممكن باستخدام المحولات الحالية.
نموذج الاسبوع
وفي تطور آخر متعلق بالهندسة المعمارية، قام فريق من الباحثين بتطوير نوع جديد من نماذج الذكاء الاصطناعي التوليدي يزعمون أنه يمكن أن يضاهي – أو يتفوق – على أقوى المحولات و مامبا من حيث الكفاءة.
يمكن للهندسة المعمارية التي تسمى نماذج التدريب في وقت الاختبار (نماذج TTT) أن تفكر في ملايين الرموز المميزة، وفقًا للباحثين، مما قد يصل إلى مليارات الرموز المميزة في التصاميم المستقبلية المكررة. (في الذكاء الاصطناعي التوليدي، “الرموز المميزة” هي أجزاء من النص الخام وغيرها من أجزاء البيانات صغيرة الحجم.) نظرًا لأن نماذج TTT يمكن أن تستوعب العديد من الرموز المميزة أكثر من النماذج التقليدية وتفعل ذلك دون إجهاد موارد الأجهزة بشكل مفرط، فهي مناسبة للتشغيل ” ويعتقد الباحثون أن تطبيقات الذكاء الاصطناعي من الجيل التالي.
للتعمق أكثر في نماذج TTT، تحقق من أحدث ميزاتنا.
الاستيلاء على حقيبة
تسببت شركة Stability AI، وهي شركة ناشئة في مجال الذكاء الاصطناعي، والتي انقض عليها المستثمرون، بما في ذلك المؤسس المشارك لشركة Napster، شون باركر، مؤخرًا لإنقاذها من الخراب المالي، في قدر كبير من الجدل حول شروط الاستخدام التقييدية للمنتج الجديد وسياسات الترخيص.
حتى وقت قريب، لاستخدام أحدث نموذج صور الذكاء الاصطناعي المفتوح من Stability AI، Stable Diffusion 3، تجاريًا، كان على المؤسسات التي تحقق إيرادات أقل من مليون دولار سنويًا الاشتراك للحصول على ترخيص “المنشئ” الذي يحدد العدد الإجمالي للصور التي يمكنها إنشاءها 6000 شهريا. ومع ذلك، كانت المشكلة الأكبر بالنسبة للعديد من العملاء هي شروط الضبط الدقيق المقيدة لـ Stability، والتي أعطت (أو على الأقل بدا أنها تمنح) Stable AI الحق في استخراج الرسوم وممارسة السيطرة على أي نموذج تم تدريبه على الصور التي تم إنشاؤها بواسطة Stable Diffusion 3.
أدى النهج الصارم لـ Stability AI إلى قيام CivitAI، أحد أكبر مضيفي نماذج توليد الصور، بفرض حظر مؤقت على النماذج المستندة أو المدربة على الصور من Stable Diffusion 3 أثناء سعيها للحصول على مشورة قانونية بشأن الترخيص الجديد.
“القلق هو أنه من خلال فهمنا الحالي، يمنح هذا الترخيص Stable AI قدرًا كبيرًا من السلطة على استخدام ليس فقط أي نماذج تم ضبطها بدقة على Stable Diffusion 3، ولكن أيضًا على أي نماذج أخرى تتضمن صور Stable Diffusion 3 في مجموعات البيانات الخاصة بها. “كتبت CivitAI في منشور على مدونتها.
ردًا على رد الفعل العكسي، قالت Stability AI في وقت مبكر من هذا الشهر إنها ستقوم بتعديل شروط الترخيص لـ Stable Diffusion 3 للسماح باستخدام تجاري أكثر ليبرالية. “طالما أنك لا تستخدمه في أنشطة غير قانونية، أو تنتهك بشكل واضح ترخيصنا أو سياسة الاستخدام المقبول، فلن تطلب منك Stability AI أبدًا حذف الصور الناتجة أو الضبط الدقيق أو المنتجات المشتقة الأخرى – حتى لو لم تدفع أبدًا “الذكاء الاصطناعي المستقر،” تم توضيح الاستقرار في إحدى المدونات.
تسلط هذه الملحمة الضوء على المزالق القانونية التي لا تزال تبتلي الذكاء الاصطناعي التوليدي – وعلى نحو متصل، إلى أي مدى تظل كلمة “مفتوح” خاضعة للتفسير. يمكنك أن تعتبرني متشائمًا، لكن العدد المتزايد من التراخيص المقيدة المثيرة للجدل يوحي لي بأن صناعة الذكاء الاصطناعي لن تتوصل إلى إجماع – أو تتجه نحو الوضوح – في أي وقت قريب.
اكتشاف المزيد من موقع شعاع للمعلوماتية
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.