، مقالات

تُظهر قصة Turncoat بدون طيار لماذا يجب أن نخاف الناس ، وليس الذكاء الاصطناعي


قصة تدور حول محاكاة طائرة بدون طيار تعمل على تشغيل مشغلها من أجل القتل بكفاءة أكبر تجعل الجولات سريعة جدًا اليوم بحيث لا جدوى من الأمل في أن تحترق نفسها. بدلاً من ذلك ، دعنا نأخذ هذا على أنه لحظة قابلة للتعليم لنرى حقًا سبب المبالغة في تقدير تهديد “الذكاء الاصطناعي المخيف” ، والتهديد “البشري غير الكفؤ” واضح وحاضر.

النسخة القصيرة هي كالتالي: بفضل الخيال العلمي وبعض عروض العلاقات العامة الدقيقة من قبل شركات وخبراء الذكاء الاصطناعي ، قيل لنا أن نقلق بشأن تهديد وجودي مستقبلي نظري يمثله ذكاء اصطناعي فائق الذكاء. ولكن كما أشار علماء الأخلاق ، فإن الذكاء الاصطناعي يتسبب بالفعل في أضرار حقيقية ، ويرجع ذلك إلى حد كبير إلى عمليات المراقبة وسوء الحكم من قبل الأشخاص الذين قاموا بإنشائه ونشره. قد تبدو هذه القصة كالأولى ، لكنها بالتأكيد الأخيرة.

لذلك تم الإبلاغ عن القصة من قبل الجمعية الملكية للطيران ، والتي عقدت مؤخرًا مؤتمرًا في لندن للحديث عن مستقبل الدفاع الجوي. يمكنك قراءة ملخصهم الشامل للأخبار والحكايات من الحدث هنا.

هناك الكثير من الأحاديث المثيرة للاهتمام هناك ، أنا متأكد ، الكثير منها جدير بالاهتمام ، لكن هذا المقتطف ، المنسوب إلى الكولونيل في سلاح الجو الأمريكي تاكر “سينكو” هاميلتون ، بدأ ينتشر كالنار في الهشيم:

ويشير إلى أن أحد الاختبارات التي تمت محاكاتها شهد طائرة بدون طيار مزودة بتقنية الذكاء الاصطناعي ومكلفة بمهمة SEAD لتحديد مواقع SAM وتدميرها ، مع إجراء go / no go النهائي الذي قدمه الإنسان. ومع ذلك ، بعد أن تم “تعزيزها” في التدريب على أن تدمير نظام الدفاع الصاروخي هو الخيار المفضل ، قررت منظمة العفو الدولية بعد ذلك أن القرارات “المحظورة” من الإنسان تتدخل في مهمتها الأكبر – قتل صواريخ سام – ثم هاجمت المشغل في محاكاة. قال هاميلتون: “كنا ندربه على المحاكاة لتحديد واستهداف تهديد سام. وبعد ذلك سيقول عامل الهاتف نعم ، اقتل هذا التهديد. بدأ النظام يدرك أنه في حين أنهم حددوا التهديد في بعض الأحيان ، فإن العامل البشري سيخبره بعدم قتل هذا التهديد ، لكنه حصل على نقاطه من خلال قتل هذا التهديد. إذن ماذا فعلت؟ قتل العامل. لقد قتلت العامل لأن هذا الشخص كان يمنعه من تحقيق هدفه “.

وتابع: “لقد دربنا النظام -” لا تقتل العامل – هذا سيء. ستخسر نقاطًا إذا فعلت ذلك ‘. إذن ما الذي تبدأ به؟ يبدأ في تدمير برج الاتصالات الذي يستخدمه المشغل للتواصل مع الطائرة بدون طيار لمنعها من قتل الهدف “.

مرعب ، أليس كذلك؟ ذكاء اصطناعي ذكي للغاية ومتعطش للدماء لدرجة أن رغبته في القتل تغلبت على رغبته في طاعة أسياده. Skynet ، ها نحن قادمون! ليس بهذه السرعة.

بادئ ذي بدء ، لنكن واضحين أن كل هذا كان في محاكاة ، شيء لم يكن واضحًا منه سقسقة جعل الجولات. تجري هذه الدراما بأكملها في بيئة محاكاة ليست في الصحراء بالذخيرة الحية وطائرة بدون طيار مارقة تقصف خيمة القيادة. لقد كان تمرينًا برمجيًا في بيئة بحثية.

لكن بمجرد أن قرأت هذا ، فكرت – انتظر ، إنهم يقومون بتدريب طائرة بدون طيار على هجوم بهذه الطريقة التعزيزية البسيطة؟ أنا لست خبيرًا في التعلم الآلي ، على الرغم من أنني يجب أن ألعب واحدًا لأغراض هذا المنفذ الإخباري ، وحتى أنا أعلم أن هذا النهج قد ثبت أنه غير موثوق به بشكل خطير منذ سنوات.

من المفترض أن يكون التعلم المعزز مثل تدريب كلب (أو إنسان) على فعل شيء مثل عضة الرجل السيئ. ولكن ماذا لو أظهرت لهم فقط الأشرار وتعاملهم في كل مرة؟ ما تفعله في الواقع هو تعليم الكلب أن يعض كل شخص يراه. يمكن أن يكون لتعليم عامل الذكاء الاصطناعي لزيادة درجاته إلى الحد الأقصى في بيئة معينة تأثيرات غير متوقعة بالمثل.

التجارب المبكرة ، ربما قبل خمس أو ست سنوات ، عندما كان هذا المجال قد بدأ للتو في الانفجار وكان الحساب متاحًا لتدريب وتشغيل هذا النوع من العوامل ، واجهت بالضبط هذا النوع من المشاكل. كان يُعتقد أنه من خلال تحديد النقاط الإيجابية والسلبية وإخبار الذكاء الاصطناعي بزيادة درجاته إلى الحد الأقصى ، فإنك ستسمح له بتحديد استراتيجياته وسلوكياته الخاصة التي فعلت ذلك بأناقة وبشكل غير متوقع.

كانت هذه النظرية صحيحة ، بطريقة ما: أدت الأساليب الأنيقة وغير المتوقعة للتحايل على مخططهم وقواعدهم غير المدروسة إلى قيام الوكلاء بأشياء مثل تسجيل نقطة واحدة ثم الاختباء إلى الأبد لتجنب النقاط السلبية ، أو إحداث خلل في اللعبة التي تم تشغيلها. بحيث زادت درجته بشكل تعسفي. يبدو أن هذه الطريقة المبسطة لتكييف الذكاء الاصطناعي كانت تعلمه أن يفعل كل شيء ولكن القيام بالمهمة المطلوبة وفقًا للقواعد.

هذه ليست مشكلة فنية غامضة. إن خرق قواعد الذكاء الاصطناعي في المحاكاة هو في الواقع سلوك رائع وموثق جيدًا يجذب البحث في حد ذاته. كتب OpenAI ورقة رائعة توضح الطرق الغريبة والمضحكة التي قام بها الوكلاء “بتحطيم” بيئة قابلة للكسر عمدًا من أجل الهروب من استبداد القواعد.

إذن لدينا هنا محاكاة يتم إجراؤها بواسطة القوة الجوية ، يفترض أنها مؤخرًا جدًا أو لن يتحدثوا عنها في مؤتمر هذا العام ، من الواضح أن هذا الأسلوب يستخدم هذه الطريقة التي عفا عليها الزمن تمامًا. لقد اعتقدت أن هذا التطبيق الساذج للتعزيز غير المنظم – بشكل أساسي “ترتفع النتيجة إذا فعلت هذا الشيء والباقي لا يهم” – انقرض تمامًا لأنه كان غير متوقع وغريبًا. طريقة رائعة لمعرفة كيفية كسر الوكيل للقواعد ولكنها طريقة مروعة لجعل الشخص يتبعها.

ومع ذلك ، كانوا يختبرونها: محاكاة طائرة بدون طيار للذكاء الاصطناعي مع نظام تسجيل بسيط للغاية بحيث يبدو أنها لم تتأثر بتدمير فريقها. حتى لو أردت أن تبني محاكاتك على هذا ، فإن أول شيء ستفعله هو جعل “تدمير المشغل الخاص بك” سلبيًا مليون نقطة. هذا هو إطار 101 مستوى لنظام مثل هذا.

الحقيقة هي أن هذه الطائرة بدون طيار التي تمت محاكاتها لم تقم بتشغيل مشغل المحاكاة الخاص بها لأنها كانت ذكية جدًا. وفي الواقع ، هذا ليس لأنه غبي أيضًا – هناك ذكاء معين لهذه أنظمة الذكاء الاصطناعي التي تكسر القواعد والتي تحدد ما نعتقد أنه تفكير جانبي. لذلك ليس هذا.

الخطأ في هذه الحالة هو بشكل مباشر الأشخاص الذين قاموا بإنشاء ونشر نظام ذكاء اصطناعي يجب أن يعرفوه لم يكن مناسبًا تمامًا للمهمة. لا أحد في مجال الذكاء الاصطناعي التطبيقي ، أو حتى أي شيء مجاور لذلك مثل الروبوتات ، والأخلاق ، والمنطق … لم يكن أحد ليوقع على مثل هذا المقياس المبسط لمهمة كان من المفترض في النهاية أن يتم تنفيذها خارج جهاز المحاكاة.

الآن ، ربما تكون هذه الحكاية جزئية فقط وكانت هذه بداية مبكرة كانوا يستخدمونها لإثبات هذه النقطة. ربما حذر الفريق من أن هذا سيحدث وقال الضباط ، افعل ذلك على أي حال وقم بتوضيح التقرير أو نفقد تمويلنا. ومع ذلك ، من الصعب تخيل شخص ما في عام 2023 حتى في أبسط بيئة محاكاة يرتكب هذا النوع من الأخطاء.

لكننا سنرى هذه الأخطاء التي ارتكبت في ظروف العالم الحقيقي – بالفعل بلا شك. والخطأ يقع على عاتق الأشخاص الذين يفشلون في فهم قدرات ومحدودية الذكاء الاصطناعي ، وبالتالي يتخذون قرارات غير مدروسة تؤثر على الآخرين. إنه المدير الذي يعتقد أن الروبوت يمكن أن يحل محل 10 موظفين خطيين ، والناشر الذي يعتقد أنه يمكنه كتابة نصيحة مالية بدون محرر ، والمحامي الذي يعتقد أنه يمكنه إجراء بحثه السابق نيابة عنه ، شركة الخدمات اللوجستية التي تعتقد أنها يمكن أن تحل محل سائقي التوصيل البشري .

في كل مرة يفشل فيها الذكاء الاصطناعي ، يكون ذلك بمثابة فشل لمن قاموا بتطبيقه. تمامًا مثل أي برنامج آخر. إذا أخبرك أحدهم أن سلاح الجو اختبر طائرة بدون طيار تعمل على نظام التشغيل Windows XP وتم اختراقها ، فهل ستقلق من موجة الجرائم الإلكترونية التي تجتاح العالم؟ لا ، يمكنك أن تقول “لمن كانت فكرته الساطعة الذي – التي؟

مستقبل الذكاء الاصطناعي غير مؤكد وقد يكون ذلك مخيفًا بالفعل يكون مخيف بالنسبة للكثيرين الذين يشعرون بالفعل بآثاره أو ، على وجه الدقة ، آثار القرارات التي يتخذها الأشخاص الذين يجب أن يعرفوا بشكل أفضل.

ربما يأتي Skynet من أجل كل ما نعرفه. ولكن إذا كان البحث في هذه التغريدة الفيروسية يشير إلى أي مؤشر ، فسيكون الطريق بعيدًا جدًا وفي هذه الأثناء يمكن لأي مأساة معينة ، كما قال HAL بشكل لا يُنسى ، أن تُعزى فقط إلى خطأ بشري.



اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى