أكدت شركة Meta أنها تستأنف جهودها لتدريب أنظمة الذكاء الاصطناعي الخاصة بها باستخدام منشورات Facebook وInstagram العامة من قاعدة المستخدمين الخاصة بها في المملكة المتحدة.
تدعي الشركة أنها “أدمجت ردود الفعل التنظيمية” في نهج “إلغاء الاشتراك” المنقح لضمان أنه “أكثر شفافية”، كما ينشره منشور مدونتها. كما أنها تسعى إلى تصوير هذه الخطوة على أنها تمكن نماذج الذكاء الاصطناعي التوليدية الخاصة بها من “أن تعكس الثقافة والتاريخ والمصطلحات البريطانية”. لكن ليس من الواضح ما هو المختلف بالضبط في عملية الاستيلاء الأخيرة على البيانات.
وقالت ميتا إنه اعتبارًا من الأسبوع المقبل، سيبدأ المستخدمون في المملكة المتحدة في رؤية إشعارات داخل التطبيق تشرح ما يفعله. وتخطط الشركة بعد ذلك لبدء استخدام المحتوى العام لتدريب الذكاء الاصطناعي الخاص بها في الأشهر المقبلة – أو على الأقل التدريب على البيانات التي لم يعترض عليها المستخدم بشكل نشط من خلال العملية التي توفرها Meta.
ويأتي هذا الإعلان بعد ثلاثة أشهر من قيام الشركة الأم لفيسبوك بإيقاف خططها مؤقتًا بسبب الضغوط التنظيمية في المملكة المتحدة، حيث أثار مكتب مفوض المعلومات (ICO) مخاوف بشأن كيفية استخدام Meta لبيانات المستخدم في المملكة المتحدة لتدريب خوارزميات الذكاء الاصطناعي التوليدية الخاصة بها – وكيف كانت تسير الأمور. حول الحصول على موافقة الناس. كما اعترضت لجنة حماية البيانات الأيرلندية، وهي الجهة التنظيمية الرئيسية للخصوصية في Meta في الاتحاد الأوروبي (EU)، على خطط Meta بعد تلقي تعليقات من العديد من سلطات حماية البيانات في جميع أنحاء الكتلة – ولا توجد أي معلومات حتى الآن حول متى أو ما إذا كانت Meta ستعيد تشغيلها. جهود التدريب على الذكاء الاصطناعي في الاتحاد الأوروبي.
في السياق، تعمل شركة ميتا على تعزيز الذكاء الاصطناعي الخاص بها من المحتوى الذي ينشئه المستخدمون في أسواق مثل الولايات المتحدة لبعض الوقت، لكن لوائح الخصوصية الشاملة في أوروبا خلقت تحديات لها – ولشركات التكنولوجيا الأخرى – التي تتطلع إلى توسيع مجموعات بيانات التدريب الخاصة بها بهذه الطريقة.
على الرغم من وجود قوانين الخصوصية في الاتحاد الأوروبي، بدأت شركة Meta في شهر مايو بإخطار المستخدمين في المنطقة بالتغيير القادم في سياسة الخصوصية، قائلة إنها ستبدأ في استخدام المحتوى من التعليقات والتفاعلات مع الشركات وتحديثات الحالة والصور والتسميات التوضيحية المرتبطة بها للذكاء الاصطناعي. تمرين. وزعمت أن الأسباب وراء القيام بذلك هي أنها تحتاج إلى أن تعكس “اللغات والجغرافيا والمرجعيات الثقافية المتنوعة للشعب في أوروبا”.
كان من المقرر أن تدخل التغييرات حيز التنفيذ في 26 يونيو، لكن إعلان Meta حفز منظمة حقوق الخصوصية غير الربحية noyb (المعروفة أيضًا باسم “ليس من شأنك”) لتقديم عشرات الشكاوى إلى الدول الأعضاء في الاتحاد الأوروبي، بحجة أن Meta كانت تنتهك جوانب مختلفة من البيانات العامة للكتلة. لائحة الحماية (GDPR) – الإطار القانوني الذي تدعمه قوانين الخصوصية الوطنية للدول الأعضاء في الاتحاد الأوروبي (وأيضًا قانون حماية البيانات في المملكة المتحدة).
استهدفت الشكاوى استخدام Meta لآلية الاشتراك للسماح بالمعالجة مقابل إلغاء الاشتراك – بحجة أنه يجب أن يطلب من المستخدمين إذنهم أولاً، بدلاً من الاضطرار إلى اتخاذ إجراءات لرفض الاستخدام الجديد لمعلوماتهم. قالت Meta إنها تعتمد على الأساس القانوني المنصوص عليه في اللائحة العامة لحماية البيانات والذي يسمى “المصلحة المشروعة” (LI). ولذلك فهي تؤكد أن أفعالها تتوافق مع القواعد على الرغم من شكوك خبراء الخصوصية في أن LI هي الأساس المناسب لمثل هذا الاستخدام لبيانات الأشخاص.
وقد سعت شركة Meta إلى الاعتماد على هذا الأساس القانوني قبل محاولة تبرير معالجة معلومات المستخدمين الأوروبيين للإعلانات ذات الاستهداف الدقيق. ومع ذلك، قضت محكمة العدل التابعة للاتحاد الأوروبي العام الماضي بعدم إمكانية استخدامه في هذا السيناريو، مما يثير الشكوك حول محاولة ميتا لدفع تدريب الذكاء الاصطناعي من خلال ثقب مفتاح LI أيضًا.
ومع ذلك، فإن اختيار شركة ميتا لبدء خططها في المملكة المتحدة، بدلاً من الاتحاد الأوروبي، أمر واضح، بالنظر إلى أن المملكة المتحدة لم تعد جزءًا من الاتحاد الأوروبي. في حين أن قانون حماية البيانات في المملكة المتحدة يظل قائمًا على اللائحة العامة لحماية البيانات، فإن الطرح الأولي للعملة (ICO) نفسه لم يعد جزءًا من نفس نادي الإنفاذ التنظيمي وغالبًا ما يوجه ضرباته إلى التنفيذ. كما فكر المشرعون في المملكة المتحدة مؤخرًا في تحرير نظام الخصوصية المحلي.
اعتراضات الانسحاب
كانت إحدى نقاط الخلاف العديدة حول نهج ميتا في المرة الأولى هي العملية التي قدمتها لمستخدمي فيسبوك وإنستغرام “لإلغاء الاشتراك” في استخدام معلوماتهم لتدريب أنظمة الذكاء الاصطناعي الخاصة بها.
وبدلاً من منح الأشخاص مربع اختيار مباشرًا “للاشتراك/الرفض”، جعلت الشركة المستخدمين يقفزون عبر الأطواق للعثور على نموذج اعتراض مخفي خلف نقرات أو نقرات متعددة، وعند هذه النقطة اضطروا إلى ذكر لماذا لم يرغبوا في معالجة بياناتهم. تم إبلاغهم أيضًا أن الأمر متروك لتقدير Meta تمامًا فيما يتعلق بما إذا كان سيتم تلبية هذا الطلب أم لا. على الرغم من أن الشركة ادعت علنًا أنها ستحترم كل طلب.
هذه المرة، تلتزم Meta بنهج نموذج الاعتراض، مما يعني أنه سيظل يتعين على المستخدمين التقدم رسميًا إلى Meta لإعلامهم بأنهم لا يريدون استخدام بياناتهم لتحسين أنظمة الذكاء الاصطناعي الخاصة بها. لن يضطر أولئك الذين اعترضوا سابقًا إلى إعادة إرسال اعتراضاتهم، وفقًا لـ Meta. لكن الشركة تقول إنها جعلت نموذج الاعتراض أكثر بساطة هذه المرة، حيث قامت بدمج التعليقات من ICO. على الرغم من أنه لم يشرح بعد كيف أن الأمر أبسط. لذا، في الوقت الحالي، كل ما لدينا هو ادعاء ميتا بأن العملية أسهل.
قال ستيفن ألموند، مدير التكنولوجيا والابتكار في ICO، إنه “سيراقب الوضع” بينما تمضي شركة Meta قدمًا في خططها لاستخدام بيانات المملكة المتحدة للتدريب على نماذج الذكاء الاصطناعي.
وقال ألموند في بيان: “يقع على عاتق ميتا ضمان وإظهار الامتثال المستمر لقانون حماية البيانات”. “لقد أوضحنا أن أي مؤسسة تستخدم معلومات مستخدميها لتدريب نماذج الذكاء الاصطناعي التوليدية [needs] أن نكون شفافين بشأن كيفية استخدام بيانات الأشخاص. يجب على المؤسسات اتباع إرشاداتنا ووضع ضمانات فعالة قبل البدء في استخدام البيانات الشخصية للتدريب النموذجي، بما في ذلك توفير طريق واضح وبسيط للمستخدمين للاعتراض على المعالجة.
اكتشاف المزيد من موقع شعاع للمعلوماتية
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.