تحديث: أقرت لجنة المخصصات في كاليفورنيا SB 1047 مع تعديلات مهمة تغير مشروع القانون يوم الخميس 15 أغسطس. يمكنك أن تقرأ عنها هنا.
وبعيدًا عن أفلام الخيال العلمي، لا توجد سابقة لأنظمة الذكاء الاصطناعي التي تقتل الناس أو تُستخدم في هجمات إلكترونية ضخمة. ومع ذلك، يريد بعض المشرعين تنفيذ الضمانات قبل أن تجعل الجهات الفاعلة السيئة هذا المستقبل البائس حقيقة واقعة. يحاول مشروع قانون كاليفورنيا، المعروف باسم SB 1047، إيقاف الكوارث الواقعية التي تسببها أنظمة الذكاء الاصطناعي قبل حدوثها، ويتجه للتصويت النهائي في مجلس شيوخ الولاية في وقت لاحق من شهر أغسطس.
في حين أن هذا يبدو هدفًا يمكن أن نتفق عليه جميعًا، إلا أن SB 1047 قد أثار حفيظة اللاعبين الكبار والصغار في وادي السيليكون، بما في ذلك أصحاب رؤوس الأموال الاستثمارية ومجموعات تجارة التكنولوجيا الكبرى والباحثين ومؤسسي الشركات الناشئة. هناك الكثير من مشاريع قوانين الذكاء الاصطناعي التي تطير في جميع أنحاء البلاد في الوقت الحالي، لكن قانون الابتكار الآمن والآمن لنماذج الذكاء الاصطناعي الحدودي في كاليفورنيا أصبح أحد أكثر القوانين إثارة للجدل. هذا هو السبب.
ماذا سيفعل SB 1047؟
يحاول SB 1047 منع استخدام نماذج الذكاء الاصطناعي الكبيرة لإحداث “أضرار جسيمة” ضد الإنسانية.
يقدم مشروع القانون أمثلة على “الأضرار الجسيمة” كجهة فاعلة سيئة تستخدم نموذج الذكاء الاصطناعي لإنشاء سلاح يؤدي إلى إصابات جماعية، أو إصدار تعليمات لأحد الأشخاص بتنظيم هجوم إلكتروني يتسبب في أضرار تزيد قيمتها عن 500 مليون دولار (للمقارنة، تشير التقديرات إلى انقطاع خدمة CrowdStrike). لتسبب في ما يزيد عن 5 مليارات دولار). ويجعل مشروع القانون المطورين – أي الشركات التي تطور النماذج – مسؤولين عن تنفيذ بروتوكولات السلامة الكافية لمنع نتائج مثل هذه.
ما هي النماذج والشركات التي تخضع لهذه القواعد؟
لن تنطبق قواعد SB 1047 إلا على أكبر نماذج الذكاء الاصطناعي في العالم: تلك التي تكلف ما لا يقل عن 100 مليون دولار وتستخدم 10^26 FLOPS أثناء التدريب – وهو قدر ضخم من الحوسبة، لكن الرئيس التنفيذي لشركة OpenAI، سام ألتمان، قال إن تدريب GPT-4 يكلف هذا القدر تقريبًا . ويمكن رفع هذه العتبات حسب الحاجة.
عدد قليل جدًا من الشركات اليوم طورت منتجات ذكاء اصطناعي عامة كبيرة بما يكفي لتلبية هذه المتطلبات، ولكن من المرجح أن تقوم عمالقة التكنولوجيا مثل OpenAI، وGoogle، وMicrosoft بذلك قريبًا جدًا. أصبحت نماذج الذكاء الاصطناعي – وهي في الأساس محركات إحصائية ضخمة تحدد الأنماط في البيانات وتتنبأ بها – أكثر دقة بشكل عام مع نموها بشكل أكبر، وهو اتجاه يتوقع الكثيرون استمراره. قال مارك زوكربيرج مؤخرًا إن الجيل القادم من Meta’s Llama سيتطلب حوسبة أكثر بعشر مرات، مما سيضعها تحت سلطة SB 1047.
عندما يتعلق الأمر بالنماذج مفتوحة المصدر ومشتقاتها، حدد مشروع القانون أن المطور الأصلي هو المسؤول ما لم ينفق مطور آخر ثلاثة أضعاف المبلغ لإنشاء مشتق من النموذج الأصلي.
يتطلب مشروع القانون أيضًا بروتوكول أمان لمنع إساءة استخدام منتجات الذكاء الاصطناعي المغطاة، بما في ذلك زر “التوقف في حالات الطوارئ” الذي يقوم بإيقاف نموذج الذكاء الاصطناعي بالكامل. ويجب على المطورين أيضًا إنشاء إجراءات اختبار تعالج المخاطر التي تفرضها نماذج الذكاء الاصطناعي، ويجب عليهم توظيف مدققين خارجيين سنويًا لتقييم ممارسات السلامة الخاصة بالذكاء الاصطناعي.
ويجب أن تكون النتيجة “ضمان معقول” بأن اتباع هذه البروتوكولات سيمنع وقوع أضرار جسيمة – لا اليقين المطلق، وهو بالطبع من المستحيل توفيره.
ومن سينفذها، وكيف؟
وستتولى وكالة جديدة في كاليفورنيا، وهي قسم النماذج الحدودية (FMD)، الإشراف على القواعد. يجب أن يتم اعتماد كل نموذج ذكاء اصطناعي عام جديد يفي بعتبات SB 1047 بشكل فردي بنسخة مكتوبة من بروتوكول الأمان الخاص به.
سيتم إدارة FMD من قبل مجلس إدارة مكون من خمسة أشخاص، بما في ذلك ممثلين عن صناعة الذكاء الاصطناعي ومجتمع المصادر المفتوحة والأوساط الأكاديمية، يتم تعيينهم من قبل حاكم ولاية كاليفورنيا والهيئة التشريعية. سيقدم مجلس الإدارة المشورة للمدعي العام في كاليفورنيا بشأن الانتهاكات المحتملة لـ SB 1047، وسيصدر إرشادات لمطوري نماذج الذكاء الاصطناعي بشأن ممارسات السلامة.
يجب على كبير مسؤولي التكنولوجيا لدى المطور تقديم شهادة سنوية إلى FMD لتقييم المخاطر المحتملة لنموذج الذكاء الاصطناعي الخاص به، ومدى فعالية بروتوكول السلامة الخاص به ووصف لكيفية امتثال الشركة لـ SB 1047. على غرار إخطارات الانتهاك، إذا كان “حادث سلامة الذكاء الاصطناعي” “، يجب على المطور إبلاغ إدارة FMD بذلك خلال 72 ساعة من علمه بالحادث.
إذا فشل المطور في الالتزام بأي من هذه الأحكام، فإن قانون SB 1047 يسمح للمدعي العام في كاليفورنيا برفع دعوى مدنية ضد المطور. بالنسبة للنموذج الذي تبلغ تكلفة تدريبه 100 مليون دولار، يمكن أن تصل العقوبات إلى 10 ملايين دولار على الانتهاك الأول و30 مليون دولار على الانتهاكات اللاحقة. ويتزايد معدل العقوبات هذا عندما تصبح نماذج الذكاء الاصطناعي أكثر تكلفة.
وأخيرًا، يتضمن مشروع القانون حماية المبلغين عن المخالفات للموظفين إذا حاولوا الكشف عن معلومات حول نموذج الذكاء الاصطناعي غير الآمن للمدعي العام في كاليفورنيا.
ماذا يقول المؤيدون؟
يقول عضو مجلس الشيوخ عن ولاية كاليفورنيا، سكوت وينر، الذي كتب مشروع القانون ويمثل سان فرانسيسكو، لـ TechCrunch أن SB 1047 هي محاولة للتعلم من إخفاقات السياسة السابقة فيما يتعلق بوسائل التواصل الاجتماعي وخصوصية البيانات، وحماية المواطنين قبل فوات الأوان.
وقال وينر: “لدينا تاريخ مع التكنولوجيا في انتظار وقوع الضرر، ثم نفرك أيدينا”. “دعونا لا ننتظر حدوث شيء سيء. دعنا فقط نخرج قبل ذلك “.
حتى لو قامت إحدى الشركات بتدريب نموذج بقيمة 100 مليون دولار في تكساس، أو في فرنسا، فسيتم تغطيتها بواسطة SB 1047 طالما أنها تمارس أعمالها في كاليفورنيا. يقول وينر إن الكونجرس لم يقم “بالقليل من التشريعات المتعلقة بالتكنولوجيا خلال ربع القرن الماضي”، لذا فهو يعتقد أن الأمر متروك لكاليفورنيا لوضع سابقة هنا.
عندما سُئل عما إذا كان قد التقى بـ OpenAI وMeta على SB 1047، قال وينر “لقد التقينا بجميع المعامل الكبيرة”.
وقد أبدى اثنان من الباحثين في مجال الذكاء الاصطناعي، ويُطلق عليهما أحيانًا اسم “الأبوين الروحيين للذكاء الاصطناعي”، وهما جيفري هينتون ويوشوا بينجيو، دعمهما لمشروع القانون هذا. ينتمي هذان الشخصان إلى فصيل من مجتمع الذكاء الاصطناعي يشعر بالقلق إزاء سيناريوهات يوم القيامة الخطيرة التي يمكن أن تسببها تكنولوجيا الذكاء الاصطناعي. لقد كان هؤلاء “المهزومون بالذكاء الاصطناعي” موجودين لفترة من الوقت في عالم الأبحاث، ويمكن لـ SB 1047 تدوين بعض الضمانات المفضلة لديهم في القانون. كتبت مجموعة أخرى ترعى SB 1047، مركز سلامة الذكاء الاصطناعي، رسالة مفتوحة في مايو 2023 تطلب من العالم إعطاء الأولوية “للتخفيف من خطر الانقراض بسبب الذكاء الاصطناعي” بنفس القدر من الجدية مثل الأوبئة أو الحرب النووية.
وقال دان هندريكس، مدير مركز سلامة الذكاء الاصطناعي، في رسالة بالبريد الإلكتروني إلى “هذا يصب في مصلحة الصناعة على المدى الطويل في كاليفورنيا والولايات المتحدة بشكل عام، لأن وقوع حادث كبير يتعلق بالسلامة من المرجح أن يكون أكبر عائق أمام مزيد من التقدم”. تك كرانش.
في الآونة الأخيرة، أصبحت دوافع هندريكس موضع تساؤل. وفي يوليو/تموز، أطلق علنًا شركة ناشئة، اسمها “جراي سوان”، والتي تبني “أدوات لمساعدة الشركات على تقييم مخاطر أنظمة الذكاء الاصطناعي الخاصة بها”، وفقًا لبيان صحفي. بعد الانتقادات التي مفادها أن شركة Hendrycks الناشئة يمكن أن تحقق مكاسب إذا تم إقرار مشروع القانون، ربما نظرًا لأن أحد المدققين SB 1047 يطلب من المطورين توظيفهم، قام بتجريد حصته في Gray Swan.
قال هندريكس في رسالة بالبريد الإلكتروني إلى TechCrunch: “لقد قمت بالتجريد من أجل إرسال إشارة واضحة”. “إذا كان المليارديرات المعارضون لسلامة الذكاء الاصطناعي يريدون إظهار أن دوافعهم نقية، فليتبعوا حذوهم.”
ماذا يقول المعارضون؟
هناك جوقة متزايدة من لاعبي وادي السيليكون تعارض SB 1047.
من المحتمل أن تشير “معارضة الملياردير في مجال رأس المال الاستثماري” لهندريكس إلى a16z، وهي شركة المشاريع التي أسسها مارك أندريسن وبن هورويتز، والتي عارضت بشدة SB 1047. في أوائل أغسطس، قدم كبير المسؤولين القانونيين في شركة الاستثمار، جايكومار راماسوامي، خطابًا إلى السيناتور وينر. زاعمين أن مشروع القانون “سيثقل كاهل الشركات الناشئة بسبب عتباته التعسفية والمتغيرة”، مما يخلق تأثيرًا مروعًا على النظام البيئي للذكاء الاصطناعي. مع تقدم تكنولوجيا الذكاء الاصطناعي، ستصبح أكثر تكلفة، مما يعني أن المزيد من الشركات الناشئة سوف تتجاوز عتبة 100 مليون دولار وسيتم تغطيتها بواسطة SB 1047؛ تقول a16z أن العديد من شركاتها الناشئة تتلقى بالفعل هذا المبلغ مقابل نماذج التدريب.
كسرت Fei-Fei Li، التي يطلق عليها غالبًا عرابة الذكاء الاصطناعي، صمتها في SB 1047 في أوائل أغسطس، وكتبت في عمود في مجلة Fortune أن مشروع القانون “سيضر بنظامنا البيئي الناشئ للذكاء الاصطناعي”. في حين أن لي رائدة تحظى بتقدير كبير في أبحاث الذكاء الاصطناعي من جامعة ستانفورد، فقد ورد أيضًا أنها أنشأت شركة ناشئة للذكاء الاصطناعي تسمى World Labs في أبريل، بقيمة مليار دولار وبدعم من a16z.
وهي تنضم إلى الأكاديميين المؤثرين في مجال الذكاء الاصطناعي، مثل زميلها الباحث في جامعة ستانفورد، أندرو إنج، الذي وصف مشروع القانون بأنه “اعتداء على المصادر المفتوحة” خلال خطاب ألقاه في حدث Y Combinator في يوليو. قد تشكل النماذج مفتوحة المصدر خطرًا إضافيًا على منشئيها، نظرًا لأنها، مثل أي برنامج مفتوح، يتم تعديلها ونشرها بسهولة أكبر لأغراض عشوائية وربما ضارة.
وقال يان ليكون، كبير علماء الذكاء الاصطناعي في ميتا، إن SB 1047 سيضر بالجهود البحثية، ويستند إلى “وهم “الخطر الوجودي” الذي تدفعه حفنة من مؤسسات الفكر والرأي الوهمية،” في منشور على X. Llama LLM من Meta هو أحد هذه الوهم. من أبرز الأمثلة على LLM مفتوح المصدر.
الشركات الناشئة أيضًا ليست سعيدة بهذا القانون. يشعر جيريمي نيكسون، الرئيس التنفيذي لشركة Omniscience الناشئة للذكاء الاصطناعي ومؤسس AGI House SF، وهو مركز لشركات الذكاء الاصطناعي الناشئة في سان فرانسيسكو، بالقلق من أن SB 1047 سوف يسحق نظامه البيئي. وهو يرى أنه ينبغي معاقبة الجهات الفاعلة السيئة لتسببها في أضرار جسيمة، وليس مختبرات الذكاء الاصطناعي التي تطور التكنولوجيا وتوزعها بشكل علني.
قال نيكسون: “هناك ارتباك عميق في قلب مشروع القانون، وهو أن حاملي شهادة الماجستير في القانون يمكن أن يختلفوا بطريقة ما في مستويات قدراتهم الخطرة”. “من المرجح، في رأيي، أن تتمتع جميع النماذج بقدرات خطرة على النحو المحدد في مشروع القانون.”
لكن شركات التكنولوجيا الكبرى، التي يركز عليها مشروع القانون بشكل مباشر، تشعر بالذعر بشأن SB 1047 أيضًا. أصدرت غرفة التقدم – وهي مجموعة تجارية تمثل Google وApple وAmazon وغيرها من عمالقة التكنولوجيا الكبرى – خطابًا مفتوحًا يعارض مشروع القانون قائلًا إن SB 1047 يقيد حرية التعبير و”يدفع الابتكار التكنولوجي خارج كاليفورنيا”. في العام الماضي، أيد الرئيس التنفيذي لشركة جوجل، ساندر بيتشاي، وغيره من المديرين التنفيذيين للتكنولوجيا فكرة التنظيم الفيدرالي للذكاء الاصطناعي.
أصدر عضو الكونجرس الأمريكي رو خانا، الذي يمثل وادي السيليكون، بيانًا يعارض SB 1047 يوم الثلاثاء. وأعرب عن مخاوفه من أن مشروع القانون “قد يكون غير فعال، ويعاقب أصحاب المشاريع الفردية والشركات الصغيرة، ويضر بروح الابتكار في كاليفورنيا”.
لا يحب وادي السليكون تقليديًا أن تضع كاليفورنيا تنظيمًا واسع النطاق للتكنولوجيا مثل هذا. في عام 2019، سحبت شركات التكنولوجيا الكبرى بطاقة مماثلة عندما هدد مشروع قانون آخر لخصوصية الولاية، وهو قانون خصوصية المستهلك في كاليفورنيا، بتغيير المشهد التكنولوجي. وقد ضغط وادي السيليكون ضد مشروع القانون هذا، وقبل أشهر من دخوله حيز التنفيذ، كتب مؤسس أمازون جيف بيزوس و50 مديرًا تنفيذيًا آخر خطابًا مفتوحًا يطالبون بمشروع قانون فيدرالي للخصوصية بدلاً من ذلك.
ماذا سيحدث بعد ذلك؟
في 15 أغسطس، سيتم إرسال SB 1047 إلى قاعة مجلس الشيوخ في كاليفورنيا مع الموافقة على أي تعديلات. هذا هو المكان الذي “تعيش فيه مشاريع القوانين أو تموت” في مجلس الشيوخ في كاليفورنيا، وفقًا لوينر. ومن المتوقع أن يتم تمريره، نظرا للدعم الساحق الذي يحظى به من المشرعين حتى الآن.
قدمت Anthropic عددًا من التعديلات المقترحة على SB 1047 في أواخر يوليو، والتي يقول وينر إنه ولجان السياسة في مجلس الشيوخ في كاليفورنيا يدرسونها بنشاط. Anthropic هي أول مطور لنموذج الذكاء الاصطناعي المتطور الذي يشير علنًا إلى رغبته في العمل مع Wiener على SB 1047، على الرغم من أنه لا يدعم الفاتورة كما هي. وكان ينظر إلى هذا إلى حد كبير على أنه فوز لمشروع القانون.
تتضمن التغييرات المقترحة من Anthropic التخلص من مرض الحمى القلاعية، وتقليل سلطة المدعي العام في مقاضاة مطوري الذكاء الاصطناعي قبل حدوث الضرر، والتخلص من بند حماية المبلغين عن المخالفات في SB 1047. ويقول وينر إنه إيجابي بشكل عام بشأن التعديلات، لكنه يحتاج إلى موافقة من عدة دول. لجان السياسة بمجلس الشيوخ قبل إضافتها إلى مشروع القانون.
إذا مرر SB 1047 مجلس الشيوخ، فسيتم إرسال مشروع القانون إلى مكتب حاكم ولاية كاليفورنيا جافين نيوسوم حيث سيقرر في النهاية ما إذا كان سيوقع مشروع القانون ليصبح قانونًا قبل نهاية أغسطس. يقول وينر إنه لم يتحدث إلى نيوسوم بشأن مشروع القانون، ولا يعرف موقفه.
لن يدخل مشروع القانون هذا حيز التنفيذ على الفور، حيث من المقرر أن يتم تشكيل منظمة الحمى القلاعية في عام 2026. علاوة على ذلك، إذا تم إقرار مشروع القانون، فمن المحتمل جدًا أن يواجه تحديات قانونية قبل ذلك، ربما من بعض المجموعات نفسها التي تتحدث عنه الآن.
تصحيح: أشارت هذه القصة في الأصل إلى مسودة سابقة للغة SB 1047 حول المسؤول عن النماذج المضبوطة بدقة. حاليًا، يقول SB 1047 أن مطور النموذج المشتق يكون مسؤولاً فقط عن النموذج إذا أنفق ثلاثة أضعاف ما أنفقه مطور النموذج الأصلي على التدريب.
اكتشاف المزيد من موقع شعاع للمعلوماتية
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.