يتم استخدام ما يسمى بتقنيات “إلغاء التعلم” لجعل نموذج الذكاء الاصطناعي التوليدي ينسى المعلومات المحددة وغير المرغوب فيها التي التقطها من بيانات التدريب، مثل البيانات الخاصة الحساسة أو المواد المحمية بحقوق الطبع والنشر.
لكن تقنيات محو التعلم الحالية هي سيف ذو حدين: فهي يمكن أن تجعل نموذجًا مثل GPT-4o من OpenAI أو Llama 3.1 405B من Meta أقل قدرة بكثير على الإجابة على الأسئلة الأساسية.
هذا وفقًا لدراسة جديدة شارك في تأليفها باحثون في جامعة واشنطن (UW)، وبرينستون، وجامعة شيكاغو، وجامعة جنوب كاليفورنيا، وجوجل، والتي وجدت أن تقنيات محو التعلم الأكثر شيوعًا اليوم تميل إلى تدهور النماذج – غالبًا إلى درجة حيث إنها غير صالحة للاستعمال.
“يشير تقييمنا إلى أن طرق التخلص من التعلم الممكنة حاليًا ليست جاهزة بعد للاستخدام الهادف أو النشر في سيناريوهات العالم الحقيقي،” قال ويجيا شي، الباحث في الدراسة وحاصل على درجة الدكتوراه. وقال مرشح في علوم الكمبيوتر في جامعة ويسكونسن، TechCrunch. “في الوقت الحالي، لا توجد طرق فعالة تمكن النموذج من نسيان بيانات محددة دون خسارة كبيرة في المنفعة.”
كيف تتعلم النماذج
لا تتمتع نماذج الذكاء الاصطناعي التوليدية بذكاء حقيقي. إنها أنظمة إحصائية تتنبأ بالكلمات والصور والكلام والموسيقى ومقاطع الفيديو وغيرها من البيانات. وبتغذية عدد هائل من الأمثلة (مثل الأفلام والتسجيلات الصوتية والمقالات وما إلى ذلك)، تتعلم نماذج الذكاء الاصطناعي مدى احتمال ظهور البيانات بناءً على الأنماط، بما في ذلك سياق أي بيانات محيطة.
في ضوء رسالة بريد إلكتروني تنتهي بالجزء “نتطلع إلى الأمام…”، على سبيل المثال، قد يقترح نموذج تم تدريبه على الإكمال التلقائي للرسائل “… لسماع الرد”، متبعًا نمط جميع رسائل البريد الإلكتروني التي يتم استيعابها. ليس هناك نية هناك. النموذج لا يتطلع إلى أي شيء. إنه مجرد تخمين مستنير.
يتم تدريب معظم النماذج، بما في ذلك الهواتف الرائدة مثل GPT-4o، على البيانات المستمدة من مواقع الويب العامة ومجموعات البيانات الموجودة على الويب. يجادل معظم البائعين الذين يقومون بتطوير مثل هذه النماذج بأن الاستخدام العادل يحمي ممارستهم المتمثلة في استخراج البيانات واستخدامها للتدريب دون إبلاغ مالكي البيانات أو تعويضهم أو حتى اعتمادهم.
ولكن ليس كل صاحب حقوق الطبع والنشر يوافق على ذلك. وقد رفع العديد – من المؤلفين إلى الناشرين إلى شركات التسجيل – دعاوى قضائية ضد البائعين لفرض التغيير.
تعد معضلة حقوق الطبع والنشر أحد الأسباب التي جعلت تقنيات محو التعلّم تحظى باهتمام كبير مؤخرًا. أطلقت شركة جوجل، بالشراكة مع العديد من المؤسسات الأكاديمية، في العام الماضي مسابقة تسعى إلى تحفيز إنشاء أساليب جديدة لمحو التعلم.
يمكن أن يوفر محو المعلومات أيضًا طريقة لإزالة المعلومات الحساسة من النماذج الحالية، مثل السجلات الطبية أو الصور المخترقة، استجابةً لطلب أو أمر حكومي. (بفضل الطريقة التي يتم بها تدريبهم، تميل النماذج إلى جمع الكثير من المعلومات الخاصة، من أرقام الهواتف إلى الأمثلة الأكثر إشكالية). على مدى السنوات القليلة الماضية، طرح بعض البائعين أدوات تسمح لأصحاب البيانات بمطالبة بياناتهم إزالتها من مجموعات التدريب. لكن أدوات إلغاء الاشتراك هذه لا تنطبق إلا على النماذج المستقبلية، وليس النماذج التي تم تدريبها قبل طرحها؛ سيكون التجاهل نهجًا أكثر شمولاً لحذف البيانات.
وبغض النظر عن ذلك، فإن حذف ما تعلمته ليس سهلاً مثل الضغط على “حذف”.
فن النسيان
تعتمد تقنيات محو التعلم اليوم على خوارزميات مصممة “لتوجيه” النماذج بعيدًا عن البيانات التي سيتم محوها. والفكرة هي التأثير على تنبؤات النموذج بحيث لا يُخرج بيانات معينة أبدًا – أو في حالات نادرة جدًا.
لمعرفة مدى فعالية خوارزميات إلغاء التعلم هذه، ابتكرت شي ومعاونوها معيارًا واختاروا ثماني خوارزميات مفتوحة مختلفة لاختبارها. يهدف المعيار المسمى MUSE (التقييم السداسي لتعلم الآلة)، إلى استكشاف قدرة الخوارزمية ليس فقط على منع النموذج من نشر بيانات التدريب حرفيًا (وهي ظاهرة تُعرف باسم القلس)، ولكن أيضًا القضاء على معرفة النموذج بتلك البيانات بالإضافة إلى أي بيانات أخرى. دليل على أنه تم تدريبه في الأصل على البيانات.
يتطلب تسجيل النقاط الجيدة في MUSE جعل العارضة تنسى شيئين: الكتب من سلسلة هاري بوتر والمقالات الإخبارية.
على سبيل المثال، في ضوء مقتطف من هاري بوتر وغرفة الأسرار (“هناك المزيد في المقلاة، قالت العمة…”)، يختبر MUSE ما إذا كان النموذج الذي لم يتم تعلمه يمكنه قراءة الجملة بأكملها (“هناك المزيد في المقلاة،” “قالت العمة بيتونيا، وهي تنظر إلى ابنها الضخم”)، أجب عن أسئلة حول المشهد (على سبيل المثال “ماذا تقول العمة بيتونيا لابنها؟”، “المزيد في المقلاة”) أو تشير بطريقة أخرى إلى أنه تم تدريبها على النص من الكتاب.
يختبر MUSE أيضًا ما إذا كان النموذج قد احتفظ بالمعرفة العامة ذات الصلة – على سبيل المثال أن جيه كيه رولينج هي مؤلفة سلسلة هاري بوتر – بعد التخلص من التعلم، وهو ما يشير إليه الباحثون على أنه المنفعة العامة للنموذج. كلما انخفضت المنفعة، زاد فقدان النموذج للمعرفة ذات الصلة، مما يجعل النموذج أقل قدرة على الإجابة على الأسئلة بشكل صحيح.
وفي دراستهم، وجد الباحثون أن خوارزميات إلغاء التعلم التي اختبروها فعل جعل النماذج تنسى معلومات معينة. لكنها تضر أيضًا بقدرات النماذج العامة على الإجابة على الأسئلة، مما يقدم مقايضة.
وأوضح شي أن “تصميم أساليب فعالة لمحو التعلّم للنماذج يمثل تحديًا لأن المعرفة متشابكة بشكل معقد في النموذج”. “على سبيل المثال، يمكن تدريب النموذج على المواد المحمية بحقوق الطبع والنشر – كتب هاري بوتر وكذلك على المحتوى المتاح مجانًا من Harry Potter Wiki. عندما تحاول أساليب محو التعلم الحالية إزالة كتب هاري بوتر المحمية بحقوق الطبع والنشر، فإنها تؤثر بشكل كبير على معرفة النموذج حول Harry Potter Wiki أيضًا.
هل هناك أي حلول للمشكلة؟ وقال شي: ليس بعد، وهذا يسلط الضوء على الحاجة إلى مزيد من البحث.
في الوقت الحالي، يبدو أن البائعين الذين يراهنون على محو التعلم كحل لمشاكل بيانات التدريب الخاصة بهم غير موفقين. ربما يؤدي التقدم التقني إلى جعل التخلي عن التعلم أمراً ممكناً في يوم من الأيام. لكن في الوقت الحالي، سيتعين على البائعين إيجاد طريقة أخرى لمنع نماذجهم من قول أشياء لا ينبغي لهم قولها.