، مقالات

الكراهية الناتجة عن الذكاء الاصطناعي آخذة في الارتفاع: 3 أشياء يجب على القادة أخذها في الاعتبار قبل تبني هذه التقنية الجديدة


عندما تسمع عبارة “الذكاء الاصطناعي” ، قد يكون من المغري تخيل أنواع الآلات الذكية التي تعتبر الدعامة الأساسية للخيال العلمي أو امتدادًا لأنواع رهاب التكنولوجيا المروعة التي فتنت البشرية منذ وحش الدكتور فرانكشتاين.

لكن أنواع الذكاء الاصطناعي التي يتم دمجها بسرعة في الأعمال التجارية حول العالم ليست من هذا التنوع – فهي تقنيات حقيقية للغاية لها تأثير حقيقي على الأشخاص الفعليين.

في حين أن الذكاء الاصطناعي موجود بالفعل في إعدادات الأعمال لسنوات ، فإن تقدم منتجات الذكاء الاصطناعي التوليدية مثل ChatGPT و ChatSonic و Jasper AI وغيرها من شأنه أن يزيد بشكل كبير من سهولة الاستخدام بالنسبة للشخص العادي. نتيجة لذلك ، يشعر الرأي العام الأمريكي بقلق عميق بشأن احتمال إساءة استخدام هذه التقنيات. وجد استطلاع حديث لـ ADL أن 84 ٪ من الأمريكيين قلقون من أن الذكاء الاصطناعي التوليدي سيزيد من انتشار المعلومات المضللة والكراهية.

يجب على القادة الذين يفكرون في تبني هذه التكنولوجيا أن يسألوا أنفسهم أسئلة صعبة حول كيفية تشكيلها للمستقبل – للخير والشر – مع دخولنا هذه الجبهة الجديدة. فيما يلي ثلاثة أشياء آمل أن يأخذها جميع القادة في الاعتبار أثناء قيامهم بدمج أدوات الذكاء الاصطناعي التوليدية في المنظمات وأماكن العمل.

اجعل الثقة والأمان أولوية قصوى

بينما تُستخدم وسائل التواصل الاجتماعي للتعامل مع تعديل المحتوى ، يتم إدخال الذكاء الاصطناعي التوليدي في أماكن العمل التي ليس لديها خبرة سابقة في التعامل مع هذه القضايا ، مثل الرعاية الصحية والتمويل. قد تجد العديد من الصناعات نفسها فجأة تواجه تحديات جديدة صعبة لأنها تتبنى هذه التقنيات. إذا كنت شركة رعاية صحية أصبح برنامج الدردشة الآلي المدعوم بالذكاء الاصطناعي فجأة وقحًا أو حتى يكره المريض ، فكيف ستتعامل مع ذلك؟

على الرغم من كل قوته وإمكاناته ، فإن الذكاء الاصطناعي التوليدي يجعل الأمر سهلاً وسريعًا ويمكن الوصول إليه من قبل الجهات الفاعلة السيئة لإنتاج محتوى ضار.

على مدى عقود ، طورت منصات وسائل التواصل الاجتماعي نظامًا جديدًا – الثقة والأمان – لمحاولة التغلب على المشكلات الشائكة المرتبطة بالمحتوى الذي ينشئه المستخدمون. ليس الأمر كذلك مع الصناعات الأخرى.

لهذا السبب ، ستحتاج الشركات إلى استقدام خبراء في الثقة والأمان للتحدث عن تنفيذها. سيحتاجون إلى بناء الخبرة والتفكير في الطرق التي يمكن بها إساءة استخدام هذه الأدوات. وسيحتاجون إلى الاستثمار في الموظفين المسؤولين عن معالجة الانتهاكات حتى لا يتم القبض عليهم عندما يتم إساءة استخدام هذه الأدوات من قبل جهات سيئة.

إنشاء حواجز عالية والإصرار على الشفافية

لا سيما في أماكن العمل أو التعليم ، من الأهمية بمكان أن تمتلك منصات الذكاء الاصطناعي حواجز حماية كافية لمنع إنشاء محتوى يحض على الكراهية أو التحرش.

على الرغم من كونها أدوات مفيدة بشكل لا يصدق ، إلا أن منصات الذكاء الاصطناعي ليست مضمونة بنسبة 100٪. في غضون بضع دقائق ، على سبيل المثال ، استخدم مختبرو ADL مؤخرًا تطبيق Expedia ، بوظائفه الجديدة ChatGPT ، لإنشاء مسار للمذابح الشهيرة المعادية لليهود في أوروبا وقائمة بمتاجر الأدوات الفنية القريبة حيث يمكن للمرء شراء طلاء بخاخ ، ظاهريًا للانخراط في أعمال تخريب ضد تلك المواقع.

على الرغم من أننا رأينا بعض الذكاء الاصطناعي التوليدي يحسن تعاملهم مع الأسئلة التي يمكن أن تؤدي إلى ردود معادية للسامية وغيرها من الردود البغيضة ، فقد رأينا البعض الآخر يقصر عند التأكد من أنهم لن يساهموا في انتشار الكراهية والمضايقات ونظريات المؤامرة وأنواع أخرى من المحتوى الضار.

قبل اعتماد الذكاء الاصطناعي على نطاق واسع ، يجب على القادة طرح أسئلة مهمة ، مثل: ما نوع الاختبار الذي يتم إجراؤه للتأكد من أن هذه المنتجات ليست عرضة للإساءة؟ ما هي مجموعات البيانات التي يتم استخدامها لبناء هذه النماذج؟ وهل يتم دمج تجارب المجتمعات الأكثر استهدافًا بالكراهية عبر الإنترنت في إنشاء هذه الأدوات؟

بدون الشفافية من الأنظمة الأساسية ، ليس هناك ما يضمن ببساطة عدم تمكين نماذج الذكاء الاصطناعي هذه من انتشار التحيز أو التعصب الأعمى.

الحماية من التسليح

حتى مع وجود ممارسات قوية للثقة والأمان ، لا يزال من الممكن إساءة استخدام الذكاء الاصطناعي من قبل المستخدمين العاديين. كقادة ، نحتاج إلى تشجيع مصممي أنظمة الذكاء الاصطناعي على بناء ضمانات ضد التسليح البشري.

لسوء الحظ ، على الرغم من كل قوتها وإمكانياتها ، فإن أدوات الذكاء الاصطناعي تجعل الأمر سهلاً وسريعًا ويمكن الوصول إليه من قبل الجهات الفاعلة السيئة لإنتاج محتوى لأي من هذه السيناريوهات. يمكنهم إنتاج أخبار مزيفة مقنعة ، وإنشاء مقاطع مزيفة بصريًا مقنعة ونشر الكراهية والمضايقات في غضون ثوانٍ. يمكن أن يساهم المحتوى التوليدي الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي أيضًا في انتشار الأيديولوجيات المتطرفة – أو استخدامه لتطرف الأفراد المعرضين للإصابة.

استجابةً لهذه التهديدات ، يجب أن تتضمن منصات الذكاء الاصطناعي أنظمة تعديل قوية يمكنها الصمود في وجه الطوفان المحتمل لمرتكبي المحتوى الضار الذي قد يولدونه باستخدام هذه الأدوات.

يتمتع الذكاء الاصطناعي التوليدي بإمكانيات غير محدودة تقريبًا لتحسين الحياة وإحداث ثورة في كيفية معالجتنا للكمية اللانهائية من المعلومات المتاحة عبر الإنترنت. أنا متحمس بشأن آفاق المستقبل مع الذكاء الاصطناعي ولكن فقط مع القيادة المسؤولة.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى