إنه رسمي: دخلت لائحة الاتحاد الأوروبي القائمة على المخاطر لتطبيقات الذكاء الاصطناعي حيز التنفيذ اعتبارًا من الخميس 1 أغسطس 2024.
يبدأ هذا على مدار الساعة بسلسلة من المواعيد النهائية المتداخلة للامتثال التي سيطبقها القانون على أنواع مختلفة من مطوري وتطبيقات الذكاء الاصطناعي. سيتم تطبيق معظم الأحكام بالكامل بحلول منتصف عام 2026. لكن الموعد النهائي الأول، الذي يفرض الحظر على عدد صغير من الاستخدامات المحظورة للذكاء الاصطناعي في سياقات محددة، مثل استخدام أجهزة إنفاذ القانون للقياسات الحيوية عن بعد في الأماكن العامة، سيتم تطبيقه في غضون ستة أشهر فقط.
وبموجب نهج الكتلة، تعتبر معظم تطبيقات الذكاء الاصطناعي منخفضة/لا تنطوي على مخاطر، لذا لن تكون ضمن نطاق التنظيم على الإطلاق.
يتم تصنيف مجموعة فرعية من الاستخدامات المحتملة للذكاء الاصطناعي على أنها عالية المخاطر، مثل القياسات الحيوية والتعرف على الوجه، أو الذكاء الاصطناعي المستخدم في مجالات مثل التعليم والتوظيف. يجب تسجيل الأنظمة المستخدمة في هذه المجالات في قاعدة بيانات الاتحاد الأوروبي وسيحتاج مطوروها إلى ضمان الامتثال لالتزامات إدارة المخاطر والجودة.
وينطبق المستوى الثالث من “المخاطر المحدودة” على تقنيات الذكاء الاصطناعي مثل روبوتات الدردشة أو الأدوات التي يمكن استخدامها لإنتاج التزييف العميق. ويجب أن تستوفي هذه بعض متطلبات الشفافية لضمان عدم خداع المستخدمين.
وينطبق جانب آخر مهم من القانون على مطوري ما يسمى الذكاء الاصطناعي للأغراض العامة (GPAIs). مرة أخرى، اتخذ الاتحاد الأوروبي نهجًا قائمًا على المخاطر، حيث يواجه معظم مطوري GPAI متطلبات شفافية خفيفة. ومن المتوقع أيضًا أن تقوم مجموعة فرعية فقط من أقوى النماذج بتقييم المخاطر واتخاذ تدابير التخفيف.
ما سيحتاج مطورو GPAI إلى فعله بالضبط للامتثال لقانون الذكاء الاصطناعي لا يزال قيد المناقشة، حيث لم يتم بعد وضع قواعد الممارسة. في وقت سابق من هذا الأسبوع، بدأ مكتب الذكاء الاصطناعي، وهو هيئة رقابة استراتيجية وبناء النظام البيئي للذكاء الاصطناعي، مشاورة ودعوة للمشاركة في عملية وضع القواعد هذه، قائلًا إنه يتوقع الانتهاء من القواعد في أبريل 2025.
في كتابها التمهيدي الخاص بقانون الذكاء الاصطناعي أواخر الشهر الماضي، كتبت شركة OpenAI، الشركة المصنعة لنموذج اللغة الكبير GPT الذي يدعم ChatGPT، أنها تتوقع العمل “بشكل وثيق مع مكتب الاتحاد الأوروبي للذكاء الاصطناعي والسلطات الأخرى ذات الصلة مع تنفيذ القانون الجديد في أوروبا”. الأشهر المقبلة.” يتضمن ذلك تجميع الوثائق الفنية والإرشادات الأخرى لمقدمي وموزعي نماذج GPAI الخاصة بهم.
“إذا كانت مؤسستك تحاول تحديد كيفية الامتثال لقانون الذكاء الاصطناعي، فيجب عليك أولاً محاولة تصنيف أي أنظمة ذكاء اصطناعي في نطاقها. “حدد GPAI وأنظمة الذكاء الاصطناعي الأخرى التي تستخدمها، وحدد كيفية تصنيفها، وفكر في الالتزامات التي تتدفق من حالات الاستخدام الخاصة بك”، أضاف OpenAI، مقدمًا بعض إرشادات الامتثال الخاصة به لمطوري الذكاء الاصطناعي. “يجب عليك أيضًا تحديد ما إذا كنت مزودًا أو ناشرًا فيما يتعلق بأي أنظمة ذكاء اصطناعي في النطاق. يمكن أن تكون هذه القضايا معقدة لذا يجب عليك استشارة مستشار قانوني إذا كانت لديك أسئلة.
اكتشاف المزيد من موقع شعاع للمعلوماتية
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.