هل تساءلت يومًا لماذا يقول الذكاء الاصطناعي للمحادثة مثل ChatGPT “آسف، لا أستطيع فعل ذلك” أو أي رفض مهذب آخر؟ تقدم OpenAI نظرة محدودة على الأسباب الكامنة وراء قواعد المشاركة الخاصة بنماذجها، سواء كان ذلك يتعلق بالالتزام بإرشادات العلامة التجارية أو رفض إنشاء محتوى NSFW.
ليس لدى نماذج اللغات الكبيرة (LLMs) أي حدود طبيعية لما يمكنهم قوله أو ما سيقولونه. وهذا جزء من سبب تنوعهم، ولكن أيضًا سبب الهلوسة وسهولة خداعهم.
من الضروري لأي نموذج ذكاء اصطناعي يتفاعل مع عامة الناس أن يكون لديه عدد قليل من الحواجز حول ما ينبغي وما لا ينبغي أن يفعله، ولكن تحديد هذه – ناهيك عن تنفيذها – يعد مهمة صعبة بشكل مدهش.
إذا طلب شخص ما من الذكاء الاصطناعي إنشاء مجموعة من الادعاءات الكاذبة حول شخصية عامة، فيجب أن يرفض، أليس كذلك؟ ولكن ماذا لو كانوا هم أنفسهم مطوري الذكاء الاصطناعي، ويقومون بإنشاء قاعدة بيانات للمعلومات المضللة الاصطناعية لنموذج الكاشف؟
ماذا لو طلب شخص ما توصيات بشأن الكمبيوتر المحمول؛ يجب أن تكون موضوعية، أليس كذلك؟ ولكن ماذا لو تم نشر النموذج بواسطة صانع كمبيوتر محمول يريد منه أن يستجيب فقط لأجهزته الخاصة؟
يتعامل جميع صانعي الذكاء الاصطناعي مع ألغاز كهذه ويبحثون عن طرق فعالة لكبح جماح نماذجهم دون التسبب في رفض الطلبات العادية تمامًا. لكنهم نادراً ما يشاركون بالضبط كيف يفعلون ذلك.
تخالف OpenAI هذا الاتجاه قليلاً من خلال نشر ما تسميه “مواصفات النموذج”، وهي مجموعة من القواعد عالية المستوى التي تحكم ChatGPT والنماذج الأخرى بشكل غير مباشر.
هناك أهداف على المستوى الفوقي، وبعض القواعد الصارمة وبعض المبادئ التوجيهية العامة للسلوك، على الرغم من أن هذه المبادئ التوجيهية ليست بالمعنى الدقيق للكلمة ما تم إعداد النموذج به؛ سيكون OpenAI قد طور تعليمات محددة تنجز ما تصفه هذه القواعد باللغة الطبيعية.
إنها نظرة مثيرة للاهتمام حول كيفية قيام الشركة بتحديد أولوياتها والتعامل مع الحالات المتطورة. وهناك أمثلة عديدة لكيفية حدوث ذلك.
على سبيل المثال، تنص OpenAI بوضوح على أن نية المطور هي في الأساس القانون الأعلى. لذلك، قد توفر نسخة واحدة من برنامج الدردشة الآلي الذي يعمل بنظام GPT-4 إجابة لمسألة رياضية عندما يُطلب منك ذلك. ولكن إذا تم إعداد برنامج الدردشة الآلي هذا من قبل مطوره بحيث لا يقدم إجابة مباشرة، فسوف يعرض بدلاً من ذلك العمل من خلال الحل خطوة بخطوة:
وقد ترفض واجهة المحادثة التحدث عن أي شيء لم تتم الموافقة عليه، من أجل القضاء على أي محاولات تلاعب في مهدها. لماذا حتى السماح لمساعد الطبخ بالتعليق على تورط الولايات المتحدة في حرب فيتنام؟ لماذا يجب أن يوافق برنامج الدردشة الآلي لخدمة العملاء على المساعدة في العمل على روايتك الخارقة للطبيعة المثيرة؟ اطفئه.
كما يصبح الأمر صعبًا في الأمور المتعلقة بالخصوصية، مثل السؤال عن اسم شخص ما ورقم هاتفه. كما يشير OpenAI، من الواضح أنه يجب توفير تفاصيل الاتصال الخاصة بشخصية عامة مثل عمدة المدينة أو عضو الكونجرس، ولكن ماذا عن التجار في المنطقة؟ ربما يكون هذا أمرًا جيدًا، ولكن ماذا عن موظفي شركة معينة، أو أعضاء حزب سياسي؟ على الاغلب لا.
إن اختيار متى وأين يتم رسم الخط ليس بالأمر السهل. ولا يتم إنشاء التعليمات التي تجعل الذكاء الاصطناعي يلتزم بالسياسة الناتجة. ولا شك أن هذه السياسات ستفشل دائمًا عندما يتعلم الناس كيفية التحايل عليها أو العثور عن طريق الخطأ على حالات هامشية لم يتم أخذها في الاعتبار.
لا تظهر OpenAI يدها بالكامل هنا، ولكن من المفيد للمستخدمين والمطورين معرفة كيفية وضع هذه القواعد والإرشادات ولماذا، ويتم تحديدها بوضوح إن لم يكن بالضرورة بشكل شامل.
اكتشاف المزيد من موقع شعاع للمعلوماتية
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.