كجزء من سلسلة النساء في الذكاء الاصطناعي المستمرة التي تقدمها TechCrunch، والتي تسعى إلى منح الأكاديميات اللاتي يركزن على الذكاء الاصطناعي وغيرهن من الوقت المستحق – والمتأخر – في دائرة الضوء، أجرت TechCrunch مقابلة مع الدكتورة ريبيكا بورتنوف، التي تشغل منصب نائب رئيس علوم البيانات في منظمة Thorn غير الربحية، التي تبني التكنولوجيا لحماية الأطفال من الاعتداء الجنسي.
التحقت بجامعة برينستون قبل أن تحصل على درجة الدكتوراه في علوم الكمبيوتر من جامعة كاليفورنيا، بيركلي. وهي تشق طريقها إلى أعلى السلم الوظيفي في ثورن، حيث تعمل منذ عام 2016. بدأت كعالمة أبحاث متطوعة، والآن، بعد مرور ثماني سنوات، تقود فريقًا ربما يكون واحدًا من الفرق الوحيدة في العالم المخصصة لبناء الآلات. التعلم والذكاء الاصطناعي لوقف الاعتداء الجنسي على الأطفال ومنعهم والدفاع عنهم.
قالت لـ TechCrunch: “خلال سنتي الأخيرة في جامعة برينستون، بينما كنت أفكر فيما سأفعله بعد التخرج، نصحت أختي بقراءة كتاب نصف السماء لنيكولاس كريستوف وشيريل وودن، والذي عرّفني على موضوع الاعتداء الجنسي على الأطفال”. قائلة إن الكتاب ألهمها لدراسة كيفية إحداث فرق في هذا المجال. وواصلت كتابة أطروحة الدكتوراه الخاصة بها مع التركيز بشكل خاص على استخدام التعلم الآلي والذكاء الاصطناعي في هذا المجال.
مهمة حماية الأطفال
في Thorn، يساعد فريق Portnoff في التعرف على الضحايا، ووقف الإيذاء مرة أخرى، ومنع الانتشار الفيروسي لمواد الاعتداء الجنسي. لقد قادت مبادرة Thorn وAll Tech Is Human المشتركة للسلامة من خلال التصميم العام الماضي، والتي تسعى جاهدة لمنع الناس من استخدام الذكاء الاصطناعي التوليدي لإيذاء الأطفال جنسيًا.
“لقد كان بمثابة دفعة هائلة، حيث تم تحديد المبادئ وإجراءات التخفيف بشكل تعاوني لمنع النماذج التوليدية من إنتاج مواد إساءة الاستخدام، وجعل اكتشاف هذه المواد أكثر موثوقية، ومنع توزيع تلك النماذج والخدمات والتطبيقات المستخدمة لإنتاج مواد إساءة الاستخدام هذه، ثم وأشارت إلى مواءمة قادة الصناعة للالتزام بهذه المعايير. وقالت إنها التقت بالعديد من الأشخاص الذين كرسوا جهودهم لهذه القضية، “لكن لدي أيضًا شعر رمادي أكثر مما كان عليه في بداية الأمر كله”.
أصبح استخدام الذكاء الاصطناعي لإنشاء صور جنسية غير رضائية محل نقاش كبير، خاصة وأن أجيال الذكاء الاصطناعي الإباحية أصبحت أكثر تعقيدًا، كما أفاد موقع TechCrunch سابقًا. لا يوجد حاليًا قانون فيدرالي شامل يحمي أو يمنع صور الذكاء الاصطناعي الجنسية التي تم إنشاؤها لأشخاص آخرين دون موافقتهم، على الرغم من أن الولايات الفردية، مثل فلوريدا ولويزيانا ونيو مكسيكو، أصدرت تشريعاتها الخاصة لاستهداف إساءة معاملة الأطفال باستخدام الذكاء الاصطناعي على وجه التحديد.
في الواقع، قالت إن هذه واحدة من أكثر القضايا إلحاحًا التي تواجه الذكاء الاصطناعي أثناء تطوره. وقالت: “أبلغ واحد من كل 10 قاصرين أنهم كانوا على علم بحالات قام فيها أقرانهم بتوليد صور عارية لأطفال آخرين”.
“ليس علينا أن نعيش في هذا الواقع، ومن غير المقبول أن نسمح له بالذهاب إلى هذه النقطة بالفعل.” وقالت إن هناك إجراءات تخفيف يمكن وضعها لمنع سوء الاستخدام والحد منه. على سبيل المثال، يدعو ثورن إلى أن تتبنى شركات التكنولوجيا مبادئ السلامة حسب التصميم وإجراءات التخفيف، وأن تشارك علنًا كيف تمنع إساءة استخدام تقنيات ومنتجات الذكاء الاصطناعي التوليدية الخاصة بها في تعزيز الاعتداء الجنسي على الأطفال، والتعاون مع المنظمات المهنية مثل منظمة العفو الدولية. معهد مهندسي الكهرباء والإلكترونيات (IEEE) والمعهد الوطني للمعايير والتكنولوجيا (NIST) لدعم وضع معايير للشركات التي يمكن استخدامها لمراجعة التقدم، بالإضافة إلى التعامل مع صانعي السياسات لإبلاغهم بمدى أهمية ذلك.
وقالت: “سيكون التشريع المرتكز على التأثير ضروريًا لضم جميع الشركات وأصحاب المصلحة”.
العمل كامرأة في الذكاء الاصطناعي
أثناء ترقيتها في السلم الوظيفي في مجال بناء الذكاء الاصطناعي، تتذكر بورتنوف أن الناس تجاهلوا نصيحتها، وطلبوا بدلاً من ذلك التحدث مع شخص لديه خلفية تقنية. “إجابتي؟ وقالت: “لا تقلق، أنت تتحدث مع شخص لديه خلفية تقنية”.
وقالت إن بعض الأشياء ساعدتها على التنقل في العمل في مثل هذا المجال الذي يهيمن عليه الذكور: الاستعداد، والتصرف بثقة، وافتراض حسن النية. وأضافت أن الاستعداد يساعدها على دخول الغرف بمزيد من الثقة، في حين أن الثقة تسمح لها بالتغلب على التحديات بفضول وجرأة، “وتسعى أولاً إلى الفهم ثم إلى أن يتم فهمها”.
وقالت: “افتراض حسن النية يساعدني في التعامل مع التحديات بلطف بدلاً من الدفاع”. “إذا لم تكن تلك النية الطيبة موجودة حقًا، فسوف تظهر في النهاية.”
نصيحتها للنساء الراغبات في دخول الذكاء الاصطناعي هي أن تؤمن دائمًا بقدرتك ومعناها. وقالت إنه من السهل الوقوع في فخ السماح لافتراضات الناس عنك بتحديد إمكاناتك، ولكن ستكون هناك حاجة لصوت الجميع في ثورة الذكاء الاصطناعي الحالية.
“نظرًا لأن التعلم الآلي/الذكاء الاصطناعي أصبح أكثر اندماجًا في أنظمتنا البشرية، نحتاج جميعًا إلى العمل معًا لضمان القيام بذلك بطريقة تعزز ازدهارنا الجماعي وتعطي الأولوية للفئات الأكثر ضعفًا بيننا.”
بناء الذكاء الاصطناعي الأخلاقي
وقال بورتنوف إن هناك جوانب عديدة للذكاء الاصطناعي المسؤول، بما في ذلك الحاجة إلى الشفافية والعدالة والموثوقية والسلامة. وتابعت: “ولكن لديهم جميعًا شيء واحد مشترك”. “يتطلب بناء التعلم الآلي/الذكاء الاصطناعي بشكل مسؤول التعامل مع عدد أكبر من أصحاب المصلحة وليس فقط زملائك من التقنيين.”
وهذا يعني المزيد من الاستماع والتعاون النشط. “إذا كنت تتبع خريطة طريق لبناء ذكاء اصطناعي مسؤول، ووجدت أنك لم تتحدث إلى أي شخص خارج مؤسستك أو فريقك الهندسي في هذه العملية، فمن المحتمل أنك تسير في الاتجاه الخاطئ.”
ومع استمرار المستثمرين في ضخ مليارات الدولارات في الشركات الناشئة العاملة في مجال الذكاء الاصطناعي، اقترح بورتنوف أنه يمكن للمستثمرين البدء في النظر إلى المسؤولية في وقت مبكر من مرحلة العناية الواجبة، والنظر في التزام الشركة بالأخلاقيات قبل القيام بالاستثمار، ومن ثم اشتراط معايير معينة يجب الالتزام بها. التقى. وهذا يمكن أن “يمنع الضرر ويتيح النمو الإيجابي”.
وقالت وهي تتحدث بشكل عام: “هناك الكثير من العمل الذي يتعين القيام به”. “ويمكنك أن تكون الشخص الذي يحقق ذلك.”