في وقت سابق من هذا الأسبوع، أنهت هيئة تنظيم الخصوصية الرئيسية في الاتحاد الأوروبي إجراءاتها القضائية المتعلقة بكيفية معالجة X لبيانات المستخدم لتدريب برنامج الدردشة Grok AI الخاص بها، لكن الملحمة لم تنته بعد بالنسبة لمنصة الوسائط الاجتماعية المملوكة لشركة Elon Musk والمعروفة سابقًا باسم Twitter. أكدت لجنة حماية البيانات الأيرلندية (DPC) لموقع TechCrunch أنها تلقت – وسوف “تدرس” – عددًا من الشكاوى التي تم تقديمها بموجب اللائحة العامة لحماية البيانات (GDPR) للكتلة.
وقالت الهيئة التنظيمية لـ TechCrunch: “ستقوم لجنة حماية البيانات (DPC) الآن بفحص مدى امتثال أي معالجة تمت للأحكام ذات الصلة من اللائحة العامة لحماية البيانات”. “إذا ثبت، بعد هذا الفحص، أن TUIC [Twitter International Unlimited Company, as X’s main Irish subsidiary is still known] لقد انتهك اللائحة العامة لحماية البيانات، فسوف تنظر لجنة حماية البيانات (DPC) بعد ذلك في ما إذا كانت ممارسة أي من صلاحياتها التصحيحية مبررة، وإذا كان الأمر كذلك، فما هي تلك (الصلاحيات).”
وافق X على تعليق معالجة البيانات الخاصة بتدريب Grok في أوائل أغسطس. أصبح التعهد X الذي تم تقديمه له دائمًا في وقت سابق من هذا الأسبوع. ألزمت هذه الاتفاقية شركة X بحذف بيانات المستخدمين الأوروبيين والتوقف عن استخدامها لتدريب أنظمة الذكاء الاصطناعي الخاصة بها والتي جمعتها في الفترة ما بين 7 مايو 2024 و1 أغسطس 2024، وفقًا لنسخة حصلت عليها TechCrunch. ولكن أصبح من الواضح الآن أنه لا يوجد أي شرط على X لحذف أي نماذج ذكاء اصطناعي تم تدريبها على البيانات.
حتى الآن، لم يواجه X أي عقوبة من DPC بسبب معالجة البيانات الشخصية للأوروبيين لتدريب Grok دون موافقة الأشخاص – على الرغم من الإجراء القضائي العاجل الذي اتخذته DPC لمنع جمع البيانات. يمكن أن تكون العقوبات بموجب اللائحة العامة لحماية البيانات قاسية، حيث تصل إلى 4% من حجم الأعمال السنوي العالمي. (وبالنظر إلى أن إيرادات الشركة الآن في حالة سقوط حر، ومن الممكن أن تصل إلى 500 مليون دولار هذا العام استناداً إلى الأرقام الفصلية المعلنة، فقد يكون هذا مؤلماً بشكل خاص).
كما يتم تمكين المنظمين من إصدار أوامر بإجراء تغييرات تشغيلية من خلال المطالبة بوقف الانتهاك. لكن الشكاوى قد تستغرق وقتًا طويلاً – قد يصل إلى عدة سنوات – للتحقيق فيها وتنفيذها.
وهذا أمر مهم لأنه على الرغم من اضطرار X إلى التوقف عن مساعدة نفسها في استخدام بيانات الأوروبيين لتدريب Grok، إلا أنها لا تزال قادرة على تشغيل أي نماذج ذكاء اصطناعي تم تدريبها بالفعل على بيانات الأشخاص الذين لم يوافقوا على الاستخدام – دون أي تدخل عاجل ولا عقوبات لوقف هذا يحدث حتى الآن.
وردًا على سؤال عما إذا كان التعهد الذي حصلت عليه DPC من X الشهر الماضي يتطلب من X حذف أي نماذج ذكاء اصطناعي تم تدريبها على بيانات الأوروبيين، أكدت لنا DPC أنها لا تفعل ذلك: “التعهد لا يتطلب من TUIC تنفيذ هذا الإجراء؛ وقال متحدث باسم الشركة: “لقد طلبت من TUIC التوقف بشكل دائم عن معالجة مجموعات البيانات التي يغطيها المشروع”.
قد يقول البعض أن هذه طريقة رائعة لـ X (أو نماذج تدريب أخرى) للتحايل على قواعد الخصوصية في الاتحاد الأوروبي: الخطوة 1) ساعد نفسك بهدوء فيما يتعلق ببيانات الأشخاص؛ الخطوة 2) استخدمه لتدريب نماذج الذكاء الاصطناعي و- عندما تخرج القطة من الحقيبة ويطرق المنظمون أخيرًا – التزم بحذف *البيانات*، مع ترك نماذج الذكاء الاصطناعي المدربة الخاصة بك سليمة. الخطوة 3) الربح القائم على Grok !؟
عند سؤالها عن هذا الخطر، ردت لجنة حماية البيانات بالقول إن الغرض من إجراءاتها القضائية العاجلة هو العمل على “مخاوف كبيرة” من أن معالجة X لبيانات مستخدمي الاتحاد الأوروبي والمنطقة الاقتصادية الأوروبية لتدريب Grok “أدت إلى خطر على الحقوق والحريات الأساسية”. من موضوعات البيانات “. لكنها لم تفسر لماذا لا تشعر بنفس القلق الملح بشأن المخاطر التي تهدد الحقوق والحريات الأساسية للأوروبيين نتيجة لدمج معلوماتهم في نظام جروك.
من المعروف أن أدوات الذكاء الاصطناعي التوليدية تنتج معلومات خاطئة. إن تحريف ” ماسك ” لهذه الفئة هو أيضًا غير محترم عمدًا – أو “مضاد للاستيقاظ” كما يطلق عليه. قد يؤدي ذلك إلى زيادة المخاطر المتعلقة بأنواع المحتوى الذي قد ينتجه عن المستخدمين الذين تم استيعاب بياناتهم لتدريب الروبوت.
أحد الأسباب التي قد تجعل الجهة التنظيمية الأيرلندية أكثر حذرًا بشأن كيفية التعامل مع هذه المشكلة هو أن أدوات الذكاء الاصطناعي هذه لا تزال جديدة نسبيًا. هناك أيضًا حالة من عدم اليقين بين هيئات مراقبة الخصوصية الأوروبية حول كيفية تطبيق اللائحة العامة لحماية البيانات (GDPR) ضد مثل هذه التكنولوجيا الجديدة. بالإضافة إلى ذلك، ليس من الواضح ما إذا كانت صلاحيات اللائحة ستمتد إلى القدرة على طلب حذف نموذج الذكاء الاصطناعي إذا تم تدريب التكنولوجيا على البيانات المعالجة بشكل غير قانوني.
ولكن مع استمرار تراكم الشكاوى في هذا المجال، سيتعين على سلطات حماية البيانات أن تستوعب مشكلة الذكاء الاصطناعي المولدة عاجلاً أم آجلاً.
الذهاب الحامض على المخللات
وفي أخبار X المنفصلة يوم الجمعة، ظهر أن رئيس الشؤون العالمية في X قد خرج. أفادت رويترز برحيل الموظف الذي خدم لفترة طويلة، نيك بيكلز، وهو مواطن بريطاني قضى عقدًا من الزمن في تويتر، وارتقى في الرتب خلال فترة عمل ماسك.
وفي منشور على موقع X، ادعى بيكلز أنه اتخذ قرار المغادرة “منذ عدة أشهر” لكنه لم يوضح أسباب مغادرته.
ومع ذلك، فمن الواضح أن الشركة لديها الكثير من المهام – بما في ذلك التعامل مع الحظر في البرازيل؛ ورد الفعل السياسي في المملكة المتحدة بسبب دورها في نشر معلومات مضللة مرتبطة بأعمال الشغب التي شهدتها البلاد الشهر الماضي. مع ميل ” ماسك ” الشخصي إلى صب الزيت على النار ( بما في ذلك النشر على موقع X للإشارة إلى أن “الحرب الأهلية أمر لا مفر منه” بالنسبة للمملكة المتحدة).
في الاتحاد الأوروبي، يخضع X أيضًا للتحقيق بموجب إطار الإشراف على المحتوى الخاص بالكتلة. تم طرح الدفعة الأولى من التظلمات المتعلقة بقانون الخدمات الرقمية في يوليو. كما تعرض ماسك مؤخرًا لتحذير شخصي في رسالة مفتوحة صاغها مفوض الأسواق الداخلية للكتلة، تييري بريتون، والتي اختار الملياردير المحب للفوضى الرد عليها بعبارات مهينة.
اكتشاف المزيد من موقع شعاع للمعلوماتية
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.