لمنح الأكاديميات اللاتي يركزن على الذكاء الاصطناعي وغيرهن من الوقت المستحق – والمتأخر – في دائرة الضوء، تطلق TechCrunch سلسلة من المقابلات التي تركز على النساء المتميزات اللاتي ساهمن في ثورة الذكاء الاصطناعي.
أنيكا كولير نافارولي هي زميلة أولى في مركز تاو للصحافة الرقمية بجامعة كولومبيا وزميلة الأصوات العامة في مجال التكنولوجيا في مشروع OpEd، الذي يُعقد بالتعاون مع مؤسسة ماك آرثر.
وهي معروفة بعملها البحثي والدعوي في مجال التكنولوجيا. عملت سابقًا كزميلة ممارسة في مجال السباق والتكنولوجيا في مركز ستانفورد للعمل الخيري والمجتمع المدني. وقبل ذلك، قادت قسم الثقة والسلامة في Twitch وTwitter. ربما اشتهرت نافارولي بشهادتها أمام الكونجرس حول تويتر، حيث تحدثت عن التحذيرات التي تم تجاهلها بشأن أعمال عنف وشيكة على وسائل التواصل الاجتماعي والتي سبقت ما سيصبح هجوم الكابيتول في 6 يناير.
باختصار، كيف كانت بدايتك في مجال الذكاء الاصطناعي؟ ما الذي جذبك للميدان؟
منذ حوالي 20 عامًا، كنت أعمل كاتبًا في غرفة الأخبار بصحيفة مسقط رأسي خلال فصل الصيف عندما أصبحت رقمية. في ذلك الوقت، كنت طالبًا جامعيًا أدرس الصحافة. كانت مواقع التواصل الاجتماعي مثل فيسبوك تجتاح الحرم الجامعي، وأصبحت مهووسًا بمحاولة فهم كيف تتطور القوانين المبنية على المطبعة مع التقنيات الناشئة. قادني هذا الفضول إلى كلية الحقوق، حيث انتقلت إلى تويتر، ودرست قانون وسياسة الإعلام، وشاهدت حركات الربيع العربي واحتلال وول ستريت. لقد جمعت كل ذلك معًا وكتبت أطروحتي للماجستير حول كيف غيرت التكنولوجيا الجديدة الطريقة التي تتدفق بها المعلومات وكيف يمارس المجتمع حرية التعبير.
عملت في اثنين من مكاتب المحاماة بعد التخرج ثم وجدت طريقي إلى معهد أبحاث البيانات والمجتمع حيث قادت أبحاث مركز الأبحاث الجديد حول ما كان يسمى آنذاك “البيانات الضخمة”، والحقوق المدنية، والعدالة. بحث عملي هناك في كيفية قيام أنظمة الذكاء الاصطناعي المبكرة، مثل برامج التعرف على الوجه، وأدوات الشرطة التنبؤية، وخوارزميات تقييم مخاطر العدالة الجنائية، بتكرار التحيز وخلق عواقب غير مقصودة أثرت على المجتمعات المهمشة. انتقلت بعد ذلك للعمل في Color of Change وقمت بقيادة أول تدقيق للحقوق المدنية لشركة تكنولوجيا، وقمت بتطوير قواعد اللعبة الخاصة بالمنظمة لحملات المساءلة التقنية، والدعوة إلى تغيير سياسات التكنولوجيا للحكومات والجهات التنظيمية. ومن هناك، أصبحت مسؤولًا كبيرًا عن السياسات داخل فرق الثقة والسلامة في Twitter وTwitch.
ما هو العمل الذي تفتخر به أكثر في مجال الذكاء الاصطناعي؟
أنا فخور جدًا بعملي داخل شركات التكنولوجيا باستخدام السياسة لتغيير ميزان القوى عمليًا وتصحيح التحيز داخل الثقافة والأنظمة الخوارزمية المنتجة للمعرفة. في تويتر، قمت بإجراء بضع حملات للتحقق من الأفراد الذين تم استبعادهم سابقًا بشكل صادم من عملية التحقق الحصرية، بما في ذلك النساء السود، والأشخاص الملونون، والأشخاص المثليين. وشمل ذلك أيضًا كبار علماء الذكاء الاصطناعي مثل صفية نوبل، وألوندرا نيلسون، وتيمنيت جيبرو، وميريديث بروسارد. كان هذا في عام 2020 عندما كان تويتر لا يزال تويتر. في ذلك الوقت، كان التحقق يعني أن اسمك ومحتواك أصبحا جزءًا من خوارزمية تويتر الأساسية لأنه تم إدراج التغريدات من الحسابات التي تم التحقق منها في التوصيات، ونتائج البحث، والجداول الزمنية الرئيسية، والمساهمة في إنشاء الاتجاهات. لذا، فإن العمل على التحقق من الأشخاص الجدد الذين لديهم وجهات نظر مختلفة حول الذكاء الاصطناعي قد أحدث تحولًا جذريًا في الأشخاص الذين مُنحت أصواتهم السلطة كقادة فكر ورفعوا الأفكار الجديدة إلى المحادثة العامة خلال بعض اللحظات الحرجة حقًا.
أنا أيضًا فخور جدًا بالبحث الذي أجريته في جامعة ستانفورد والذي جاء تحت عنوان “أسود في الاعتدال”. عندما كنت أعمل داخل شركات التكنولوجيا، لاحظت أيضًا أنه لا أحد كان يكتب أو يتحدث عن التجارب التي كنت أعيشها كل يوم كشخص أسود يعمل في مجال الثقة والسلامة. لذلك عندما تركت الصناعة وعدت إلى المجال الأكاديمي، قررت التحدث مع العاملين في مجال التكنولوجيا السود وتسليط الضوء على قصصهم. انتهى البحث إلى أن يكون الأول من نوعه، وقد حفز العديد من المحادثات الجديدة والمهمة حول تجارب موظفي التكنولوجيا ذوي الهويات المهمشة.
كيف يمكنك التغلب على تحديات صناعة التكنولوجيا التي يهيمن عليها الذكور، وبالتالي، صناعة الذكاء الاصطناعي التي يهيمن عليها الذكور؟
باعتباري امرأة سوداء مثلية، كان التنقل في المساحات التي يهيمن عليها الذكور والمساحات التي أكون فيها شخصًا آخر جزءًا من رحلة حياتي بأكملها. في مجال التكنولوجيا والذكاء الاصطناعي، أعتقد أن الجانب الأكثر تحديًا هو ما أسميه في بحثي “العمل القسري على الهوية”. لقد قمت بصياغة هذا المصطلح لوصف المواقف المتكررة حيث يتم التعامل مع الموظفين ذوي الهويات المهمشة كأصوات و/أو ممثلين لمجتمعات بأكملها يتشاركون هوياتهم.
ونظرًا للمخاطر الكبيرة التي تصاحب تطوير تكنولوجيا جديدة مثل الذكاء الاصطناعي، قد يبدو أحيانًا أنه من المستحيل تقريبًا الهروب من تلك العمالة. كان علي أن أتعلم كيفية وضع حدود محددة لنفسي حول القضايا التي كنت على استعداد للتعامل معها ومتى.
ما هي بعض القضايا الأكثر إلحاحًا التي تواجه الذكاء الاصطناعي أثناء تطوره؟
وفقًا للتقارير الاستقصائية، استحوذت نماذج الذكاء الاصطناعي التوليدية الحالية على جميع البيانات الموجودة على الإنترنت، وسوف تنفد قريبًا البيانات المتاحة لالتهامها. لذا فإن أكبر شركات الذكاء الاصطناعي في العالم تتجه إلى البيانات الاصطناعية، أو المعلومات التي يولدها الذكاء الاصطناعي نفسه، وليس البشر، لمواصلة تدريب أنظمتها.
أخذتني الفكرة إلى حفرة أرنب. لذلك، كتبت مؤخرًا مقالة افتتاحية جادلت فيها بأنني أعتقد أن استخدام البيانات الاصطناعية كبيانات تدريب هو أحد القضايا الأخلاقية الأكثر إلحاحًا التي تواجه تطوير الذكاء الاصطناعي الجديد. لقد أظهرت أنظمة الذكاء الاصطناعي التوليدية بالفعل أنه بناءً على بيانات التدريب الأصلية الخاصة بها، فإن مخرجاتها هي تكرار التحيز وإنشاء معلومات خاطئة. لذا فإن مسار تدريب الأنظمة الجديدة باستخدام البيانات الاصطناعية يعني تغذية المخرجات المتحيزة وغير الدقيقة باستمرار إلى النظام كبيانات تدريب جديدة. لقد وصفت هذا بأنه من المحتمل أن يتحول إلى حلقة ردود فعل إلى الجحيم.
منذ أن كتبت المقال، أشاد مارك زوكربيرج بأن برنامج الدردشة Llama 3 المحدث من Meta كان مدعومًا جزئيًا بالبيانات الاصطناعية وكان منتج الذكاء الاصطناعي “الأكثر ذكاءً” في السوق.
ما هي بعض المشكلات التي يجب على مستخدمي الذكاء الاصطناعي معرفتها؟
يعد الذكاء الاصطناعي جزءًا منتشرًا في كل مكان من حياتنا الحالية، بدءًا من التدقيق الإملائي وموجزات الوسائط الاجتماعية وحتى برامج الدردشة الآلية ومولدات الصور. وفي كثير من النواحي، أصبح المجتمع بمثابة خنزير غينيا لتجارب هذه التكنولوجيا الجديدة غير المختبرة. لكن لا ينبغي لمستخدمي الذكاء الاصطناعي أن يشعروا بالعجز.
لقد كنت أزعم أن المدافعين عن التكنولوجيا يجب أن يجتمعوا وينظموا مستخدمي الذكاء الاصطناعي للدعوة إلى إيقاف الناس مؤقتًا عن الذكاء الاصطناعي. أعتقد أن رابطة الكتاب الأمريكية أظهرت أنه من خلال التنظيم والعمل الجماعي والتصميم الصبور، يمكن للناس أن يجتمعوا معًا لإنشاء حدود ذات معنى لاستخدام تقنيات الذكاء الاصطناعي. وأعتقد أيضًا أننا إذا توقفنا الآن لإصلاح أخطاء الماضي وإنشاء مبادئ توجيهية وتنظيمية أخلاقية جديدة، فلا ينبغي للذكاء الاصطناعي أن يصبح تهديدًا وجوديًا لمستقبلنا.
ما هي أفضل طريقة لبناء الذكاء الاصطناعي بشكل مسؤول؟
لقد أظهرت لي تجربتي في العمل داخل شركات التكنولوجيا مدى أهمية من يكتب السياسات، ويقدم الحجج، ويتخذ القرارات. أظهر لي مساري أيضًا أنني طورت المهارات التي أحتاجها للنجاح في صناعة التكنولوجيا من خلال البدء في كلية الصحافة. لقد عدت الآن للعمل في كلية كولومبيا للصحافة وأنا مهتم بتدريب الجيل القادم من الأشخاص الذين سيقومون بأعمال المساءلة التكنولوجية وتطوير الذكاء الاصطناعي بشكل مسؤول داخل شركات التكنولوجيا وكمراقبين خارجيين.
أظن [journalism] تمنح المدرسة الناس مثل هذا التدريب الفريد في استجواب المعلومات، والبحث عن الحقيقة، والنظر في وجهات نظر متعددة، وخلق الحجج المنطقية، واستخلاص الحقائق والواقع من الرأي والمعلومات الخاطئة. أعتقد أن هذا أساس متين للأشخاص الذين سيكونون مسؤولين عن كتابة القواعد لما يمكن أن تفعله التكرارات التالية للذكاء الاصطناعي وما لا تستطيع فعله. وأنا أتطلع إلى إنشاء مسار أكثر معبدة لأولئك الذين سيأتون بعد ذلك.
وأعتقد أيضًا أنه بالإضافة إلى العاملين المهرة في مجال الثقة والسلامة، تحتاج صناعة الذكاء الاصطناعي إلى تنظيم خارجي. وفي الولايات المتحدة، أرى أن هذا لابد أن يأتي في هيئة وكالة جديدة لتنظيم شركات التكنولوجيا الأمريكية تتمتع بالقدرة على إنشاء وتنفيذ معايير أساسية للسلامة والخصوصية. أود أيضًا مواصلة العمل لربط الهيئات التنظيمية الحالية والمستقبلية بالعاملين السابقين في مجال التكنولوجيا الذين يمكنهم مساعدة من هم في السلطة على طرح الأسئلة الصحيحة وإنشاء حلول جديدة دقيقة وعملية.
اكتشاف المزيد من موقع شعاع للمعلوماتية
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.