قال الرئيس التنفيذي لشركة أوبن إيه آي ، سام ألتمان ، للمشرعين الأمريكيين يوم الثلاثاء إن أحد “أكبر مخاوفه” هو إمكانية الذكاء الاصطناعي لإقناع وتقديم “معلومات مضللة تفاعلية” قبل الانتخابات الأمريكية العام المقبل.
جاءت تصريحات ألتمان ، الذي أنشأت شركته chatbot ChatGPT بالذكاء الاصطناعي ، خلال جلسة استماع أمام لجنة فرعية تابعة لمجلس الشيوخ الأمريكي بشأن الخصوصية والتكنولوجيا والقانون ، رحب فيها بتنظيم التكنولوجيا الناشئة ، ودعا إلى عمليات تدقيق مستقلة وتحذيرات مشابهة للملصقات الغذائية على الطعام. فكرة رائعة.”
كما سئل أعضاء مجلس الشيوخ ألتمان عن قدرة الذكاء الاصطناعي على التنبؤ بالرأي العام والتأثير فيه فيما يتعلق بالانتخابات القادمة.
“القدرة العامة لهذه النماذج على التلاعب والإقناع وتقديم نوع من التضليل التفاعلي الفردي. . . بالنظر إلى أننا سنواجه انتخابات العام المقبل وأن هذه النماذج تتحسن. وقال “أعتقد أن هذا مجال قلق كبير”.
تأتي جلسة الاستماع في الوقت الذي يكثف فيه المنظمون والحكومات في جميع أنحاء العالم فحصهم للتكنولوجيا سريعة التطور وسط مخاوف متزايدة بشأن انتهاكات محتملة لها.
في الأسبوع الماضي ، وافق المشرعون في الاتحاد الأوروبي على مجموعة صارمة من القواعد بشأن استخدام الذكاء الاصطناعي ، بما في ذلك القيود المفروضة على برامج الدردشة مثل ChatGPT ، حيث تمضي بروكسل قدما في سن النظام الأكثر تقييدًا في العالم بشأن تطوير التكنولوجيا.
في وقت سابق من هذا الشهر ، أطلقت كل من لجنة التجارة الفيدرالية الأمريكية وهيئة مراقبة المنافسة في المملكة المتحدة طلقات تحذيرية على الصناعة. قالت لجنة التجارة الفيدرالية إنها “تركز بشكل مكثف على كيفية اختيار الشركات لاستخدام تكنولوجيا الذكاء الاصطناعي” ، بينما تخطط هيئة المنافسة والأسواق في المملكة المتحدة لإطلاق مراجعة لسوق الذكاء الاصطناعي.
يبحث الكونجرس أيضًا في إمكانية وكيفية صياغة لوائح تحكم التكنولوجيا ، ويخطط للتحدث إلى المزيد من المصادر من الصناعة في الأشهر المقبلة. خلال جلسة الاستماع يوم الثلاثاء ، اقترح ريتشارد بلومنتال ، السناتور الديمقراطي من ولاية كونيتيكت الذي يرأس اللجنة الفرعية للخصوصية ، وضع قيود على استخدام الذكاء الاصطناعي “حيث يكون خطر الذكاء الاصطناعي شديدًا لدرجة أنه يتعين علينا فرض قيود ، أو حتى حظر استخدامها ، خاصة عندما يتعلق الأمر بالانتهاكات التجارية للخصوصية من أجل الربح ، والقرارات التي تؤثر على سبل عيش الناس “.
في حوار مهذب وودي – والذي يتناقض مع المزيد من التبادلات القتالية التي تظهر كثيرًا أثناء ظهور المديرين التنفيذيين في مجال التكنولوجيا أمام الكونجرس – قال ألتمان إن التعاون بين الصناعة والمشرعين ضروري لصياغة قواعد فعالة.
“أعتقد أنه إذا حدث خطأ في هذه التكنولوجيا ، فقد تسوء تمامًا. ونريد أن نكون صريحين بشأن ذلك. نريد العمل مع الحكومة لمنع حدوث ذلك.
أقر ألتمان بأن التكنولوجيا مثل GPT-4 ، التكنولوجيا الأساسية وراء ChatGPT ، من شأنها “أتمتة بعض الوظائف بالكامل” لكنه جادل بأنها ستخلق وظائف جديدة تعتقد OpenAI أنها “ستكون أفضل بكثير”.
قال بلومنتال إن “أكبر كابوسه” المتعلق بالتكنولوجيا الناشئة كان “الثورة الصناعية الجديدة التي تلوح في الأفق ، وتشريد ملايين العمال (و) خسارة أعداد هائلة من الوظائف”.
وأشار إلى الفشل في التحرك بسرعة لتنظيم وسائل التواصل الاجتماعي والرغبة في “عدم تكرار أخطاء الماضي”.
أثار التطور السريع للذكاء الاصطناعي التوليدي ، والذي يمكن أن ينتج كتابات مقنعة شبيهة بالبشر ، على مدى الأشهر الستة الماضية ، قلق بعض علماء أخلاقيات الذكاء الاصطناعي.
في مارس ، وقع رئيس Twitter Elon Musk وأكثر من 1000 باحث ومدير تنفيذي تقنيًا خطابًا يدعو إلى استراحة لمدة ستة أشهر لتدريب نماذج لغة الذكاء الاصطناعي الأكثر قوة من GPT-4 ، وهي التكنولوجيا الأساسية التي تستخدمها OpenAI في برنامج الدردشة الآلي الخاص بها. في وقت سابق من هذا الشهر ، استقال رائد الذكاء الاصطناعي جيفري هينتون من Google بعد عقد من العمل في شركة التكنولوجيا العملاقة للتحدث بحرية عن مخاطر التكنولوجيا ، التي حذر من أنها ستؤدي إلى تضخيم الانقسامات المجتمعية ويمكن أن يستخدمها الفاعلون السيئون.
كما أدلى كريستينا مونتغمري ، نائب الرئيس وكبير مسؤولي الخصوصية والثقة في شركة IBM ، وجاري ماركوس ، الأستاذ الفخري بجامعة نيويورك ، بشهادتهما في جلسة الاستماع يوم الثلاثاء.
شارك في التغطية مادوميتا مورغيا