بعد أسبوعين من استجواب أعضاء الكونجرس الرئيس التنفيذي لشركة OpenAI سام ألتمان حول إمكانية أدوات الذكاء الاصطناعي لنشر المعلومات المضللة وتعطيل الانتخابات وإزاحة الوظائف ، أعلن هو وآخرون في الصناعة عن احتمال مخيف أكثر بكثير: نهاية العالم للذكاء الاصطناعي.
انضم ألتمان ، الذي تقف شركته وراء أداة chatbot الفيروسية ChatGPT ، إلى ديميس هاسابيس ، الرئيس التنفيذي لشركة Google DeepMind ، وكيفن سكوت كبير التكنولوجيا في Microsoft وعشرات من باحثي الذكاء الاصطناعي وكبار رجال الأعمال الآخرين في التوقيع على خطاب من جملة واحدة الشهر الماضي ينص على: “التخفيف من خطر الانقراض من يجب أن يكون الذكاء الاصطناعي أولوية عالمية إلى جانب المخاطر المجتمعية الأخرى مثل الأوبئة والحرب النووية “.
غطت الصحافة هذا التحذير الصارخ على نطاق واسع ، واقترح البعض أنه أظهر الحاجة إلى أخذ مثل هذه السيناريوهات المروعة بجدية أكبر. لكنه يسلط الضوء أيضًا على ديناميكية مهمة في وادي السيليكون في الوقت الحالي: يقوم كبار المديرين التنفيذيين في بعض أكبر شركات التكنولوجيا بإخبار الجمهور في وقت واحد أن الذكاء الاصطناعي لديه القدرة على إحداث الانقراض البشري بينما يتسابق أيضًا للاستثمار في هذه التكنولوجيا ونشرها في المنتجات التي تصل إلى مليارات الأشخاص.
ظهرت هذه الديناميكية في أماكن أخرى مؤخرًا أيضًا. على سبيل المثال ، قال الرئيس التنفيذي لشركة Tesla Elon Musk في مقابلة تلفزيونية في أبريل إن الذكاء الاصطناعي يمكن أن يؤدي إلى “تدمير الحضارة”. لكنه لا يزال منخرطًا بعمق في التكنولوجيا من خلال الاستثمارات عبر إمبراطوريته التجارية المترامية الأطراف وقال إنه يريد إنشاء منافس لعروض الذكاء الاصطناعي من Microsoft و Google.
يقول بعض خبراء صناعة الذكاء الاصطناعي إن تركيز الانتباه على السيناريوهات البعيدة قد يصرف الانتباه عن الأضرار الأكثر إلحاحًا التي يمكن أن يسببها جيل جديد من أدوات الذكاء الاصطناعي القوية للأشخاص والمجتمعات ، بما في ذلك نشر المعلومات المضللة وإدامة التحيزات وتمكين التمييز في الخدمات المختلفة.
قال جاري ماركوس ، الباحث في الذكاء الاصطناعي والأستاذ الفخري بجامعة نيويورك الذي أدلى بشهادته أمام المشرعين إلى جانب ألتمان الشهر الماضي ، لشبكة CNN: “بدت الدوافع مختلطة”. من المحتمل أن يكون بعض التنفيذيين “قلقين حقًا بشأن ما أطلقوه ،” كما قال ، لكن آخرين ربما يحاولون تركيز الانتباه على “الاحتمالات المجردة للانتقاص من الاحتمالات الأكثر إلحاحًا”.
لم يرد ممثلو Google و OpenAI على الفور على طلب للتعليق. في بيان ، قال متحدث باسم Microsoft: “نحن متفائلون بشأن مستقبل الذكاء الاصطناعي ، ونعتقد أن تطورات الذكاء الاصطناعي ستحل العديد من التحديات أكثر مما تقدم ، لكننا كنا أيضًا متسقين في إيماننا بأنه عند إنشاء تقنيات يمكن أن تتغير في جميع أنحاء العالم ، يجب عليك أيضًا التأكد من استخدام التكنولوجيا بطريقة مسؤولة “.
بالنسبة لماركوس ، الذي وصف نفسه بأنه منتقد لضجيج الذكاء الاصطناعي ، فإن “أكبر تهديد مباشر من الذكاء الاصطناعي هو تهديد الديمقراطية من الإنتاج بالجملة لمعلومات مضللة مقنعة.”
يتم تدريب أدوات الذكاء الاصطناعي التوليدية مثل ChatGPT و Dall-E من OpenAI على مجموعة كبيرة من البيانات عبر الإنترنت لإنشاء أعمال وصور مكتوبة مقنعة استجابةً لمطالبات المستخدم. باستخدام هذه الأدوات ، على سبيل المثال ، يمكن للمرء أن يقلد بسرعة أسلوب الشخصيات العامة أو شبهها في محاولة لخلق حملات إعلامية مضللة.
في شهادته أمام الكونجرس ، قال ألتمان أيضًا إن إمكانية استخدام الذكاء الاصطناعي للتلاعب بالناخبين واستهداف المعلومات المضللة كانت من بين “مجالات قلقي الأكبر”.
حتى في حالات الاستخدام الأكثر شيوعًا ، هناك مخاوف. وقد تم استدعاء نفس الأدوات لتقديم إجابات خاطئة لمطالبات المستخدم ، والاستجابات “الهلوسة” الصريحة ، وربما استمرار التحيز العنصري والجنساني.
قالت إميلي بندر ، الأستاذة في جامعة واشنطن ومديرة معمل اللغويات الحاسوبية ، لشبكة CNN إن بعض الشركات قد ترغب في تحويل الانتباه عن التحيز الموجود في بياناتها وأيضًا عن المزاعم المتعلقة بكيفية تدريب أنظمتها.
وأشار بندر إلى مخاوف بشأن الملكية الفكرية مع بعض البيانات التي يتم تدريب هذه الأنظمة عليها بالإضافة إلى مزاعم قيام الشركات بالاستعانة بمصادر خارجية للعمل من خلال بعض أسوأ أجزاء بيانات التدريب للعمال ذوي الأجور المنخفضة في الخارج.
قال بيندر لشبكة CNN: “إذا كان بإمكان الجمهور والمنظمين التركيز على سيناريوهات الخيال العلمي الخيالية هذه ، فربما يمكن لهذه الشركات أن تفلت من سرقة البيانات والممارسات الاستغلالية لفترة أطول”.
قد يكون المنظمون هم الجمهور المستهدف الحقيقي لرسائل يوم القيامة لصناعة التكنولوجيا.
كما يقول بندر ، يقول التنفيذيون في الأساس: “هذه الأشياء خطيرة للغاية ، ونحن الوحيدين الذين يفهمون كيفية كبح جماحها.”
انطلاقا من ظهور ألتمان أمام الكونجرس ، قد تنجح هذه الاستراتيجية. بدا أن ألتمان قد استحوذ على واشنطن من خلال تكرار مخاوف المشرعين بشأن الذكاء الاصطناعي – وهي تقنية لا يزال الكثيرون في الكونجرس يحاولون فهمها – وتقديم اقتراحات لكيفية معالجتها.
قال بندر إن هذا النهج في التنظيم سيكون “إشكاليًا بشكل كبير”. يمكن أن يمنح الصناعة تأثيرًا على المنظمين المكلفين بمحاسبتها وأيضًا استبعاد أصوات ومدخلات الأشخاص والمجتمعات الأخرى التي تعاني من آثار سلبية لهذه التكنولوجيا.
قال بندر: “إذا كان المنظمون نوعًا ما يتجهون نحو الأشخاص الذين يبنون ويبيعون التكنولوجيا باعتبارهم هم الوحيدون الذين يمكن أن يفهموا ذلك ، وبالتالي يمكنهم إبلاغ كيفية عمل اللوائح التنظيمية ، فسوف نفوت حقًا”.
قالت بندر إنها تحاول ، في كل فرصة ، أن تقول للناس “هذه الأشياء تبدو أكثر ذكاءً مما هي عليه الآن.” على حد تعبيرها ، هذا لأن “نحن أذكياء مثلنا” والطريقة التي نفهم بها اللغة ، بما في ذلك الاستجابات من الذكاء الاصطناعي ، “هي في الواقع من خلال تخيل العقل وراءها.”
في النهاية ، طرح بندر سؤالًا بسيطًا لصناعة التكنولوجيا حول الذكاء الاصطناعي: “إذا كانوا يعتقدون بصدق أن هذا قد يؤدي إلى انقراض البشر ، فلماذا لا تتوقف؟”