تواجه OpenAI شكوى خصوصية أخرى في الاتحاد الأوروبي. هذه الشكوى، التي تم رفعها من قبل منظمة غير ربحية متخصصة في حقوق الخصوصية noyb نيابة عن مشتكي فردي، تستهدف عدم قدرة برنامج الدردشة الآلي ChatGPT الخاص بها والذي يعمل بالذكاء الاصطناعي على تصحيح المعلومات الخاطئة التي يولدها حول الأفراد.
لقد تم توثيق ميل أدوات GenAI لإنتاج معلومات خاطئة بشكل جيد. ولكنه يضع التكنولوجيا أيضًا في مسار تصادمي مع اللائحة العامة لحماية البيانات (GDPR) الخاصة بالكتلة – والتي تحكم كيفية معالجة البيانات الشخصية للمستخدمين الإقليميين.
يمكن أن تصل العقوبات المفروضة على حالات الفشل في الامتثال للقانون العام لحماية البيانات (GDPR) إلى ما يصل إلى 4% من إجمالي المبيعات السنوية العالمية. والأهم من ذلك بالنسبة لشركة عملاقة غنية بالموارد مثل OpenAI: يمكن لمنظمي حماية البيانات أن يأمروا بإجراء تغييرات على كيفية معالجة المعلومات، وبالتالي فإن تطبيق اللائحة العامة لحماية البيانات يمكن أن يعيد تشكيل كيفية عمل أدوات الذكاء الاصطناعي التوليدية في الاتحاد الأوروبي.
اضطرت OpenAI بالفعل إلى إجراء بعض التغييرات بعد التدخل المبكر من قبل هيئة حماية البيانات الإيطالية، والتي أجبرت لفترة وجيزة على إغلاق ChatGPT محليًا في عام 2023.
الآن يقدم noyb أحدث شكوى من اللائحة العامة لحماية البيانات (GDPR) ضد ChatGPT إلى هيئة حماية البيانات النمساوية نيابة عن مشتكي لم يذكر اسمه وجد أن برنامج الدردشة الآلي الذي يعمل بالذكاء الاصطناعي قد أنتج تاريخ ميلاد غير صحيح لهم.
بموجب اللائحة العامة لحماية البيانات، يتمتع الأشخاص في الاتحاد الأوروبي بمجموعة من الحقوق المرتبطة بالمعلومات المتعلقة بهم، بما في ذلك الحق في تصحيح البيانات الخاطئة. يؤكد noyb أن OpenAI تفشل في الامتثال لهذا الالتزام فيما يتعلق بمخرجات برنامج الدردشة الآلي الخاص بها. وقالت إن الشركة رفضت طلب صاحب الشكوى لتصحيح تاريخ الميلاد غير الصحيح، معتبرة أنه من المستحيل من الناحية الفنية تصحيحه.
وبدلاً من ذلك، عرضت تصفية البيانات أو حظرها بناءً على مطالبات معينة، مثل اسم صاحب الشكوى.
تنص سياسة خصوصية OpenAI على أنه يمكن للمستخدمين الذين يلاحظون أن برنامج الدردشة الآلي المدعم بالذكاء الاصطناعي قد أنشأ “معلومات غير دقيقة عنك” تقديم “طلب تصحيح” من خلال موقع Privacy.openai.com أو عبر البريد الإلكتروني dsar@openai.com. ومع ذلك، فهو يحذر من هذا السطر بالتحذير: “نظرًا للتعقيد الفني لكيفية عمل نماذجنا، فقد لا نكون قادرين على تصحيح عدم الدقة في كل حالة”.
في هذه الحالة، تقترح OpenAI على المستخدمين أن يطلبوا إزالة معلوماتهم الشخصية من مخرجات ChatGPT بالكامل – عن طريق ملء نموذج ويب.
المشكلة بالنسبة لعملاق الذكاء الاصطناعي هي أن حقوق اللائحة العامة لحماية البيانات ليست انتقائية. من حق الناس في أوروبا أن يطلبوا التصحيح. ولهم أيضًا الحق في طلب حذف بياناتهم. ولكن، كما يشير نويب، ليس من حق OpenAI اختيار أي من هذه الحقوق المتاحة.
تركز العناصر الأخرى للشكوى على مخاوف الشفافية الخاصة باللائحة العامة لحماية البيانات (GDPR)، حيث يزعم نويب أن OpenAI غير قادر على تحديد مصدر البيانات التي يولدها عن الأفراد، ولا البيانات التي يخزنها برنامج الدردشة الآلي عن الأشخاص.
وهذا أمر مهم لأن اللائحة، مرة أخرى، تمنح الأفراد الحق في طلب مثل هذه المعلومات عن طريق تقديم ما يسمى بطلب الوصول إلى الموضوع (SAR). ومع ذلك، لم تستجب OpenAI بشكل مناسب لتقرير SAR الخاص بصاحب الشكوى، وفشلت في الكشف عن أي معلومات حول البيانات التي تمت معالجتها أو مصادرها أو مستلميها.
وتعليقًا على الشكوى في بيان، قال ماارتجي دي جراف، محامي حماية البيانات في noyb: “إن اختلاق معلومات كاذبة يمثل مشكلة كبيرة في حد ذاته. ولكن عندما يتعلق الأمر بمعلومات كاذبة عن الأفراد، يمكن أن تكون هناك عواقب وخيمة. من الواضح أن الشركات غير قادرة حاليًا على جعل برامج الدردشة مثل ChatGPT تتوافق مع قانون الاتحاد الأوروبي، عند معالجة البيانات المتعلقة بالأفراد. إذا لم يتمكن النظام من إنتاج نتائج دقيقة وشفافة، فلا يمكن استخدامه لتوليد بيانات حول الأفراد. يجب أن تتبع التكنولوجيا المتطلبات القانونية، وليس العكس.
وقالت الشركة إنها تطلب من DPA النمساوية التحقيق في الشكوى المتعلقة بمعالجة بيانات OpenAI، فضلاً عن حثها على فرض غرامة لضمان الامتثال في المستقبل. لكنها أضافت أنه “من المحتمل” أن يتم التعامل مع هذه القضية من خلال التعاون مع الاتحاد الأوروبي.
تواجه OpenAI شكوى مماثلة جدًا في بولندا. في سبتمبر الماضي، فتحت هيئة حماية البيانات المحلية تحقيقًا بشأن ChatGPT بعد شكوى قدمها باحث في الخصوصية والأمن والذي وجد أيضًا أنه غير قادر على تصحيح معلومات غير صحيحة عنه بواسطة OpenAI. وتتهم هذه الشكوى أيضًا عملاق الذكاء الاصطناعي بالفشل في الامتثال لمتطلبات الشفافية التي تنص عليها اللائحة.
وفي الوقت نفسه، لا تزال هيئة حماية البيانات الإيطالية تجري تحقيقًا مفتوحًا في ChatGPT. وفي يناير/كانون الثاني، أصدرت مسودة قرار، قائلة في ذلك الوقت إنها تعتقد أن OpenAI قد انتهكت اللائحة العامة لحماية البيانات بعدة طرق، بما في ذلك ما يتعلق بميل برنامج الدردشة الآلي إلى إنتاج معلومات مضللة عن الأشخاص. وتتعلق النتائج أيضًا بقضايا جوهرية أخرى، مثل مشروعية المعالجة.
ومنحت السلطات الإيطالية شركة OpenAI شهرًا للرد على النتائج التي توصلت إليها. ولا يزال القرار النهائي معلقا.
الآن، مع إطلاق شكوى أخرى بشأن اللائحة العامة لحماية البيانات (GDPR) على برنامج الدردشة الآلي الخاص بها، تزايد خطر مواجهة OpenAI لسلسلة من إنفاذ اللائحة العامة لحماية البيانات (GDPR) عبر الدول الأعضاء المختلفة.
في الخريف الماضي، افتتحت الشركة مكتبًا إقليميًا في دبلن – في خطوة يبدو أنها تهدف إلى تقليص المخاطر التنظيمية من خلال تحويل شكاوى الخصوصية من قبل لجنة حماية البيانات الأيرلندية، وذلك بفضل آلية في القانون العام لحماية البيانات تهدف إلى تبسيط الرقابة على الشكاوى عبر الحدود. من خلال توجيههم إلى سلطة دولة عضو واحدة حيث تكون الشركة “مؤسسة رئيسية”.