Jannah Theme License is not validated, Go to the theme options page to validate the license, You need a single license for each domain name.
، مقالات

تعكس مخاوف مديري تكنولوجيا المعلومات بشأن الذكاء الاصطناعي التوليدي تلك المخاوف التي كانت سائدة في الأيام الأولى للحوسبة السحابية


عندما حضرت ندوة سلون لمديري تكنولوجيا المعلومات في معهد ماساتشوستس للتكنولوجيا في شهر مايو، أذهلني أنني بينما كنت أستمع إلى مدراء تكنولوجيا المعلومات يتحدثون عن أحدث التقنيات – في هذه الحالة الذكاء الاصطناعي التوليدي – تذكرت وقتًا آخر في نفس الندوة في عام 2010 تقريبًا عندما كان الحديث يدور بالكامل عن السحابة.

كان من الملحوظ مدى تشابه المخاوف بشأن الذكاء الاصطناعي مع تلك التي سمعتها عن السحابة الوليدة منذ تلك السنوات الماضية: كانت الشركات مهتمة بالحوكمة (الفحص)، والأمن (الفحص)، والاستخدام المسؤول للتكنولوجيا الجديدة (الفحص).

لكن عام 2010 كان على حافة استهلاك تكنولوجيا المعلومات حيث كان العمال يبحثون عن نفس النوع من الخبرة التي حصلوا عليها في المنزل في العمل. وسرعان ما لجأوا إلى “تكنولوجيا المعلومات الظلية” للعثور على تلك الحلول بأنفسهم عندما رفضت تكنولوجيا المعلومات، ولم تكن “لا” هي الحل الافتراضي في تلك الأيام. كان من السهل على الموظفين الخروج بمفردهم ما لم يتم إغلاق الأمور بشكل كامل.

اليوم، يدرك مدراء تكنولوجيا المعلومات أنهم إذا قالوا لا للذكاء الاصطناعي التوليدي، فمن المحتمل أن يجد الموظفون طريقة لاستخدام هذه الأدوات على أي حال. هناك الكثير من المخاوف المشروعة عندما يتعلق الأمر بهذه التكنولوجيا – مثل الهلوسة أو من يملك IP – ولكن هناك أيضًا مخاوف بشأن الأمان والامتثال والضوابط، خاصة فيما يتعلق بالبيانات، التي تطلبها وتتطلبها المؤسسات الكبيرة.

لكن مدراء تكنولوجيا المعلومات الذين تحدثوا في المؤتمر كانوا أكثر واقعية مما كانوا عليه قبل 15 عاما، حتى لو كانت لديهم مخاوف مماثلة.

قال أكيرا بيل، رئيس قسم تكنولوجيا المعلومات في Mathematica، متحدثًا في لجنة بعنوان “الحفاظ على الميزة التنافسية في عصر الذكاء الاصطناعي”: “كما تعلمون، كل شيء متاح وقد أصبح ديمقراطيًا”.

أعتقد أن شخصاً آخر قال هذا الصباح: كما تعلمون، لا يمكننا التحكم في هذه اللحظة. لا يمكننا ولا نريد أن نكون “وكلاء الرفض”، لنخبر الجميع بما يمكنهم وما لا يمكنهم فعله، ولكن ما يمكننا فعله هو التأكد من أن الناس يفهمون المسؤولية الملقاة على عاتقهم كممثلين ومستخدمين لهذه الأدوات.

قالت بيل إنها اليوم، بدلًا من قول لا، تدفع نحو الاستخدام المسؤول للتكنولوجيا وتبحث عن طرق لتعزيز تجربة عملائها مع الذكاء الاصطناعي. “لذا، يتعلق الأمر بالحوكمة، والتأكد من أن بياناتنا جاهزة للاستخدام، والتأكد من أن موظفينا يفهمون أفضل الممارسات الموجودة أثناء استمرارهم في استخدامها”.

وقالت إن الجزء الثاني يفكر حقًا في كيفية استخدام الذكاء الاصطناعي التوليدي لتعزيز قدراتهم الأساسية، وكيف يمكنهم استخدامه نيابة عن العملاء لإنشاء أو تضخيم أو تغيير عروض الخدمة الحالية لعملائهم.

قال بيل إنه يجب عليك أيضًا إلقاء نظرة على مكون الأمان، لذا فإن كل هذه الأشياء مهمة. يمكن لمنظمتها تقديم إرشادات حول كيفية استخدام هذه الأدوات بطريقة تتوافق مع قيم الشركة دون إيقاف الوصول.

تتخذ أنجليكا تريتزو، رئيسة قسم تكنولوجيا المعلومات في شركة GE Vernova، وهي شركة منبثقة جديدة من شركة GE تركز على الطاقة البديلة، نهجًا متعمدًا لتنفيذ الذكاء الاصطناعي التوليدي. “لدينا عدد من الطيارين في مراحل نضج مختلفة. ربما، مثل كثيرين آخرين، لا نفهم تمامًا الإمكانات الكاملة، وبالتالي فإن التكلفة والفائدة لا تتوافق دائمًا بشكل كامل. “إننا نجد طريقنا باستخدام جميع أنواع التكنولوجيا، ومدى الشراكة مع الآخرين مقابل ما يتعين علينا القيام به بأنفسنا.” لكن هذه العملية تساعدها على معرفة ما يصلح وما لا يصلح وكيفية المضي قدمًا مع مساعدة الموظفين على التعرف عليه.

قال كريس بيدي، CDIO (كبير مسؤولي المعلومات الرقمية) في ServiceNow، إن الأمور ستتغير في السنوات القادمة حيث يبدأ الموظفون في المطالبة بالوصول إلى أدوات الذكاء الاصطناعي. “من وجهة نظر المواهب، بينما تتطلع المؤسسات إلى الاحتفاظ بالمواهب، وهو موضوع ساخن، لا يهم الوظيفة الوظيفية، فالناس يريدون أن تبقى مواهبهم الوظيفية. أعتقد أنه سيكون من غير المعقول أن تطلب من موظفي شركتك القيام بوظائفهم بدون GenAI،” قال Bedi لـ TechCrunch. والأكثر من ذلك، فهو يعتقد أن الموهبة ستبدأ في المطالبة بها وتتساءل عن سبب رغبتك في القيام بالعمل يدويًا.

ولتحقيق هذه الغاية، يقول بيدي إن شركته ملتزمة بتعليم موظفيها حول الذكاء الاصطناعي وكيفية إنشاء قوة عاملة تتقن الذكاء الاصطناعي لأن الناس لن يفهموا بالضرورة كيفية الاستفادة المثلى من هذه التكنولوجيا دون توجيه.

وقال: “لقد أنشأنا بعض مسارات التعلم، لذلك كان على كل فرد في الشركة أن يأخذ برنامج AI 101 الخاص به”. “لقد أنشأنا ذلك وبشكل انتقائي [levels] 201 و 301 لأننا نعلم أن المستقبل هو الذكاء الاصطناعي، ولذلك يتعين علينا أن نجعل القوى العاملة لدينا تشعر بالارتياح تجاهه.

يشير كل هذا إلى أنه على الرغم من أن المخاوف قد تكون هي نفسها التي كانت عليها في الموجة الأخيرة من التغير التكنولوجي، إلا أن المديرين التنفيذيين لتكنولوجيا المعلومات ربما تعلموا بعض الدروس على طول الطريق. لقد فهموا الآن أنه لا يمكنك قفله فحسب. وبدلاً من ذلك، يتعين عليهم إيجاد طرق لمساعدة الموظفين على استخدام أدوات الذكاء الاصطناعي التوليدية بأمان وفعالية، لأنهم إذا لم يفعلوا ذلك، فمن المحتمل أن يبدأ الموظفون في استخدامها على أي حال.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى