أصبحت أدوات الذكاء الاصطناعي مثل ChatGPT سائدة، وتضخ الشركات التي تقف وراء هذه التقنيات مليارات الدولارات في الرهان على أنها ستغير الطريقة التي نعيش بها ونعمل بها.
ولكن إلى جانب هذا الوعد يأتي تيار مستمر من العناوين الرئيسية المثيرة للقلق، بعضها يسلط الضوء على قدرة الذكاء الاصطناعي على إثارة التحيزات أو عدم الدقة عند الرد على أسئلتنا أو أوامرنا. يُزعم أن أدوات الذكاء الاصطناعي التوليدية، بما في ذلك ChatGPT، تنتهك حقوق الطبع والنشر. ومن المثير للقلق أن بعضها قد تم استخدامه لتوليد صور حميمة بدون موافقة.
في الآونة الأخيرة، سلط مفهوم “التزييف العميق” الأضواء عندما انتشرت الصور الإباحية لتايلور سويفت التي أنشأها الذكاء الاصطناعي عبر وسائل التواصل الاجتماعي، مما يؤكد على الإمكانات الضارة التي تشكلها تكنولوجيا الذكاء الاصطناعي السائدة.
حث الرئيس جو بايدن الكونجرس خلال عام 2024 خطاب حالة الاتحاد لتمرير تشريع لتنظيم الذكاء الاصطناعي، بما في ذلك حظر “انتحال صوت الذكاء الاصطناعي والمزيد”. وقال إن المشرعين بحاجة إلى “تسخير وعد الذكاء الاصطناعي وحمايتنا من مخاطره”، محذرا من مخاطر التكنولوجيا على الأمريكيين إذا تركت دون رادع.
جاء بيانه في أعقاب حملة robocall المزيفة الأخيرة التي تم تقليدها صوته واستهدف الآلاف من الناخبين الأساسيين في نيو هامبشاير فيما وصفته السلطات بمحاولة التدخل في الانتخابات المدعومة بالذكاء الاصطناعي. على الرغم من تحذير خبراء المعلومات المضللة من تهديدات الذكاء الاصطناعي لاستطلاعات الرأي والخطاب العام، إلا أن قليلين يتوقعون أن يصدر الكونجرس تشريعًا لكبح جماح صناعة الذكاء الاصطناعي خلال عام انتخابي مثير للخلاف.
هذا لا يتوقف شركات التكنولوجيا الكبرى وشركات الذكاء الاصطناعي، التي تواصل جذب المستهلكين والشركات إلى الميزات والقدرات الجديدة.
في الآونة الأخيرة، قدمت OpenAI، منشئ ChatGPT، نموذجًا جديدًا للذكاء الاصطناعي يسمى Sora، والذي تدعي أنه يمكنه إنشاء مقاطع فيديو “واقعية” و”خيالية” مدتها 60 ثانية من خلال مطالبات نصية سريعة. أضافت مايكروسوفت مساعد الذكاء الاصطناعي الخاص بها، Copilot، الذي يعمل على التكنولوجيا التي تدعم ChatGPT، إلى مجموعة منتجاتها، بما في ذلك Word وPowerPoint وTeams وOutlook، وهي برامج تستخدمها العديد من الشركات في جميع أنحاء العالم. وقدمت جوجل برنامج Gemini، وهو برنامج دردشة آلي يعمل بالذكاء الاصطناعي والذي بدأ يحل محل ميزة مساعد جوجل في بعض أجهزة أندرويد.
يشعر الباحثون والأساتذة والخبراء القانونيون في مجال الذكاء الاصطناعي بالقلق إزاء التبني الجماعي للذكاء الاصطناعي قبل أن يكون لدى المنظمين القدرة أو الرغبة في كبح جماحه. وقد وقع المئات من هؤلاء الخبراء رسالة هذا الأسبوع تطلب من شركات الذكاء الاصطناعي إجراء تغييرات في السياسات والموافقة على الامتثال لتقييمات مستقلة أسباب السلامة والمساءلة.
“يجب على شركات الذكاء الاصطناعي التوليدي أن تتجنب تكرار أخطاء منصات وسائل التواصل الاجتماعي، والتي حظر الكثير منها بشكل فعال أنواعًا من الأبحاث التي تهدف إلى مساءلتها، مع التهديد باتخاذ إجراءات قانونية، أو رسائل التوقف والكف، أو طرق أخرى لفرض آثار مخيفة”. وقالت الرسالة “في البحث”.
وأضافت أن بعض شركات الذكاء الاصطناعي المنتجة قامت بتعليق حسابات الباحثين وغيرت شروط الخدمة الخاصة بها لردع بعض أنواع التقييم، مشيرة إلى أن “إضعاف الباحثين المستقلين ليس في المصالح الخاصة لشركات الذكاء الاصطناعي”.
جاءت الرسالة بعد أقل من عام من مطالبة بعض أكبر الأسماء في مجال التكنولوجيا، بما في ذلك إيلون ماسك، مختبرات الذكاء الاصطناعي بوقف تدريب أقوى أنظمة الذكاء الاصطناعي لمدة ستة أشهر على الأقل، مشيرة إلى “مخاطر عميقة على المجتمع والإنسانية”. ” (لم يحدث الوقفة).
وقال سوريش فينكاتاسوبرامانيان، عالم الكمبيوتر والأستاذ في جامعة براون، لشبكة CNN: “الشيء الأكثر إثارة للقلق الذي أراه حول الذكاء الاصطناعي هو الفجوة المستمرة بين الوعد والممارسة”. “تواصل الشركات الوعد بتسليم القمر عندما يتعلق الأمر بالذكاء الاصطناعي وما زالت تقدم الجبن الأخضر المتعفن.”
وكان فينكاتاسوبرامانيان، الذي تم تعيينه في مكتب البيت الأبيض لسياسة العلوم والتكنولوجيا في عام 2021 للمساعدة في تقديم المشورة بشأن سياسة الذكاء الاصطناعي، من بين الخبراء الذين وقعوا على الرسالة الأخيرة.
قال فينكاتاسوبرامانيان: “يتم التحكم في الوصول إلى أنظمة الذكاء الاصطناعي التوليدية الرئيسية المستخدمة على نطاق واسع من قبل عدد قليل من الشركات”، مشيرًا إلى أن هذه الأنظمة ترتكب الأخطاء بسهولة ويمكن أن تنتج محتوى ضارًا. “بدون القدرة على تقييم الذكاء الاصطناعي بشكل مستقل ومع الخوف من التهديدات القانونية، سيظل من الصعب جدًا على الباحثين القيام بالمهمة المهمة المتمثلة في تقييم سلامة وأمن وجدارة أنظمة الذكاء الاصطناعي التوليدية بحيث يكون صناع السياسات على اطلاع جيد لاتخاذ الإجراءات اللازمة.”
وقال إنه يتطلع إلى صناع السياسات والعمل الذي يقوم به مكتب الإدارة والميزانية بالبيت الأبيض، الذي يشرف على رؤية الرئيس بايدن عبر السلطة التنفيذية، لتوضيح ووضع “قواعد الطريق”.
وافق آرفيند نارايانان، أستاذ علوم الكمبيوتر في جامعة برينستون، والذي وقع أيضًا على الرسالة، وقال لشبكة CNN إنه قلق بشكل خاص بشأن الوتيرة التي يتسارع بها الذكاء الاصطناعي. بسرعة أكبر بكثير من قدرتنا على التكيف معها.
قال نارايانان: “لقد أصبحت شركات التكنولوجيا ثرية من خلال نموذج أعمال حيث تجني الأرباح من فوائد التقنيات الجديدة، في حين يتحمل المجتمع تكاليف هذه التقنيات”، معترفًا بأن هذا كان الحال قبل فترة طويلة من ظهور الذكاء الاصطناعي التوليدي.
وأضاف: “هناك حاجة إلى حواجز حماية لأضرار محددة، لكنها لن تصلح نموذج الأعمال الأساسي”.
وهو يعتقد أن الإصلاحات الأكثر جرأة قد تكون ضرورية أيضا، مثل فرض الضرائب على شركات الذكاء الاصطناعي لتمويل شبكات الأمان الاجتماعي.
في الوقت الحالي، يجب على مستخدمي الذكاء الاصطناعي التوليدي في الوقت الحالي فهم القيود والتحديات المرتبطة باستخدام المنتجات التي لا تزال بعيدة تمامًا عن المكان الذي يجب أن تكون فيه.
عندما سألت CNN ChatGPT عما إذا كانت (وغيرها من أدوات الذكاء الاصطناعي التوليدية) جاهزة للتبني على نطاق واسع، أجابت: “نعم”. لكنه أضاف تحذيرا: “إن الجهود المستمرة لمعالجة التحديات الأخلاقية والمجتمعية والتنظيمية أمر بالغ الأهمية للتبني الجماعي المسؤول والمفيد”.
وقد أجابت أداة Gemini AI من جوجل – والتي كانت تسمى سابقًا Bard – بالمثل ولكن مع قدر أكبر من الحذر: “إن الذكاء الاصطناعي التوليدي يمر بلحظة، ولكن هناك إشارات متضاربة حول التبني الجماعي”.
“على الرغم من الاستخدام الواسع النطاق، لم تظهر الدراسات زيادة كبيرة في الإنتاجية حتى الآن،” برج الجوزاء كتب. “قد يحتاج الموظفون إلى مزيد من التدريب للاستفادة الكاملة من الذكاء الاصطناعي التوليدي.”
كما أشارت جيميني إلى القضايا الأخلاقية، حيث كتبت: “التحيز في بيانات التدريب يمكن أن يؤدي إلى مخرجات متحيزة للذكاء الاصطناعي”. “(و) هناك مخاوف بشأن الاستخدام المسؤول والمساءلة.”
ساهم بريان فونغ من سي إن إن في إعداد هذا التقرير