هل تستطيع الولايات المتحدة تنظيم الذكاء الاصطناعي بشكل هادف؟ الأمر ليس واضحًا على الإطلاق بعد. لقد حقق صناع السياسات تقدمًا في الأشهر الأخيرة، لكنهم واجهوا أيضًا انتكاسات، مما يوضح الطبيعة الصعبة للقوانين التي تفرض حواجز حماية على التكنولوجيا.
وفي مارس/آذار، أصبحت ولاية تينيسي أول ولاية تحمي فناني الصوت من الاستنساخ غير المصرح به بواسطة الذكاء الاصطناعي. في هذا الصيف، تبنت كولورادو نهجًا متدرجًا قائمًا على المخاطر في سياسة الذكاء الاصطناعي. وفي سبتمبر/أيلول، وقع حاكم كاليفورنيا جافين نيوسوم على العشرات من مشاريع قوانين السلامة المرتبطة بالذكاء الاصطناعي، والتي يتطلب عدد قليل منها من الشركات الكشف عن تفاصيل حول تدريبها على الذكاء الاصطناعي.
لكن الولايات المتحدة لا تزال تفتقر إلى سياسة فيدرالية في مجال الذكاء الاصطناعي يمكن مقارنتها بقانون الذكاء الاصطناعي في الاتحاد الأوروبي. وحتى على مستوى الولايات، لا يزال التنظيم يواجه عقبات كبيرة.
بعد معركة طويلة مع المصالح الخاصة، استخدم الحاكم نيوسوم حق النقض ضد مشروع القانون SB 1047، وهو القانون الذي كان من شأنه أن يفرض متطلبات واسعة النطاق للسلامة والشفافية على الشركات التي تطور الذكاء الاصطناعي. تم تعليق مشروع قانون آخر في ولاية كاليفورنيا يستهدف موزعي التزييف العميق للذكاء الاصطناعي على وسائل التواصل الاجتماعي هذا الخريف في انتظار نتيجة الدعوى القضائية.
ومع ذلك، هناك سبب للتفاؤل، وفقًا لجيسيكا نيومان، المدير المشارك لمركز سياسات الذكاء الاصطناعي في جامعة كاليفورنيا في بيركلي. وفي حديثه أمام لجنة حول حوكمة الذكاء الاصطناعي في TechCrunch Disrupt 2024، أشار نيومان إلى أن العديد من مشاريع القوانين الفيدرالية ربما لم تتم كتابتها مع وضع الذكاء الاصطناعي في الاعتبار، ولكنها لا تزال تنطبق على الذكاء الاصطناعي – مثل تشريعات مكافحة التمييز وحماية المستهلك.
وقال نيومان: “كثيراً ما نسمع عن كون الولايات المتحدة هذا النوع من “الغرب المتوحش” مقارنة بما يحدث في الاتحاد الأوروبي، لكنني أعتقد أن هذا مبالغ فيه، والواقع أكثر دقة من ذلك”.
ومن وجهة نظر نيومان، أجبرت لجنة التجارة الفيدرالية الشركات التي تجمع البيانات خلسة على حذف نماذج الذكاء الاصطناعي الخاصة بها، وهي تحقق فيما إذا كانت مبيعات شركات الذكاء الاصطناعي الناشئة لشركات التكنولوجيا الكبرى تنتهك تنظيمات مكافحة الاحتكار. وفي الوقت نفسه، أعلنت لجنة الاتصالات الفيدرالية أن المكالمات الآلية التي يصدرها الذكاء الاصطناعي غير قانونية، وطرحت قاعدة تقضي بالكشف عن المحتوى الناتج عن الذكاء الاصطناعي في الإعلانات السياسية.
حاول الرئيس جو بايدن أيضًا وضع قواعد معينة للذكاء الاصطناعي في الكتب. منذ ما يقرب من عام، وقع بايدن على الأمر التنفيذي للذكاء الاصطناعي، الذي يدعم التقارير الطوعية وممارسات المقارنة المعيارية التي كانت العديد من شركات الذكاء الاصطناعي تختار تنفيذها بالفعل.
وكانت إحدى نتائج الأمر التنفيذي هي إنشاء معهد سلامة الذكاء الاصطناعي الأمريكي (AISI)، وهو هيئة اتحادية تدرس المخاطر في أنظمة الذكاء الاصطناعي. تعمل AISI ضمن المعهد الوطني للمعايير والتكنولوجيا، ولديها شراكات بحثية مع مختبرات الذكاء الاصطناعي الكبرى مثل OpenAI وAnthropic.
ومع ذلك، يمكن إنهاء AISI بإلغاء بسيط لأمر بايدن التنفيذي. وفي أكتوبر/تشرين الأول، دعا ائتلاف يضم أكثر من 60 منظمة الكونجرس إلى سن تشريع يقنن مبادرة AISI قبل نهاية العام.
وقالت إليزابيث كيلي، مديرة AISI، والتي شاركت أيضًا في اللجنة: “أعتقد أننا جميعًا، كأمريكيين، نشترك في مصلحة التأكد من أننا نخفف من الجوانب السلبية المحتملة للتكنولوجيا”.
فهل هناك أمل في تنظيم شامل للذكاء الاصطناعي في الولايات المتحدة؟ إن فشل مشروع قانون SB 1047، الذي وصفه نيومان بأنه مشروع قانون “لمسة خفيفة” مع مدخلات من الصناعة، ليس مشجعًا تمامًا. تم تأليف SB 1047 من قبل عضو مجلس الشيوخ عن ولاية كاليفورنيا سكوت وينر، وقد عارضه الكثيرون في وادي السيليكون، بما في ذلك خبراء التكنولوجيا البارزين مثل كبير علماء الذكاء الاصطناعي في ميتا، يان ليكون.
في هذه الحالة، قال وينر، وهو عضو آخر في لجنة Disrupt، إنه لم يكن ليقوم بصياغة مشروع القانون بطريقة مختلفة – وهو واثق من أن التنظيم الواسع النطاق للذكاء الاصطناعي سوف يسود في النهاية.
وأضاف: “أعتقد أن هذا يمهد الطريق للجهود المستقبلية”. “نأمل أن نتمكن من القيام بشيء يمكن أن يجمع المزيد من الأشخاص معًا، لأن الحقيقة التي اعترفت بها جميع المختبرات الكبيرة بالفعل هي أن المخاطر [of AI] حقيقية ونريد أن نختبرها.”
في الواقع، حذرت منظمة أنثروبيك الأسبوع الماضي من كارثة الذكاء الاصطناعي إذا لم تنفذ الحكومات القواعد التنظيمية خلال الأشهر الثمانية عشر المقبلة.
لقد ضاعف المعارضون من خطابهم. يوم الاثنين الماضي، وصف فينود خوسلا، مؤسس شركة Khosla Ventures، وينر بأنه “جاهل تمامًا” و”غير مؤهل” لتنظيم المخاطر الحقيقية للذكاء الاصطناعي. وأصدرت مايكروسوفت وأندريسن هورويتز بيانًا حاشدًا ضد لوائح الذكاء الاصطناعي التي قد تؤثر على مصالحهما المالية.
ومع ذلك، يفترض نيومان أن الضغط من أجل توحيد خليط قواعد الذكاء الاصطناعي المتنامي لكل دولة على حدة سيؤدي في النهاية إلى حل تشريعي أقوى. وبدلا من الإجماع على نموذج التنظيم، قدم صناع السياسات في الولاية ما يقرب من 700 قطعة من تشريعات الذكاء الاصطناعي هذا العام وحده.
وقالت: “شعوري هو أن الشركات لا تريد بيئة من النظام التنظيمي المرقّع حيث تختلف كل ولاية عن الأخرى، وأعتقد أنه ستكون هناك ضغوط متزايدة للحصول على شيء على المستوى الفيدرالي يوفر مزيدًا من الوضوح ويقلل من بعض الأمور”. من عدم اليقين هذا.”
اكتشاف المزيد من موقع شعاع للمعلوماتية
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.