البيت الأبيض أبرم صفقة مع كبار مطوري الذكاء الاصطناعي – بما في ذلك Amazon و Google و Meta و Microsoft و OpenAI – تلزمهم باتخاذ إجراءات لمنع إطلاق نماذج الذكاء الاصطناعي الضارة في العالم.
بموجب الاتفاقية ، التي يسميها البيت الأبيض “التزامًا طوعيًا” ، تتعهد الشركات بإجراء اختبارات داخلية والسماح باختبار خارجي لنماذج الذكاء الاصطناعي الجديدة قبل إصدارها علنًا. سيبحث الاختبار عن المشكلات بما في ذلك المخرجات المتحيزة أو التمييزية ، وعيوب الأمن السيبراني ، ومخاطر الضرر المجتمعي الأوسع. كما شارك في الاتفاقية Startups Anthropic و Inflection ، وكلاهما مطور منافسين بارزين لـ ChatGPT من OpenAI.
صرح المستشار الخاص للبيت الأبيض لمنظمة العفو الدولية بن بوكانان للصحفيين في إيجاز أمس: “من واجب الشركات ضمان سلامة منتجاتها قبل تقديمها للجمهور من خلال اختبار سلامة وقدرة أنظمة الذكاء الاصطناعي الخاصة بها”. تشمل المخاطر التي طُلب من الشركات البحث عنها انتهاكات الخصوصية وحتى المساهمات المحتملة في التهديدات البيولوجية. كما التزمت الشركات أيضًا بالإبلاغ العلني عن قيود أنظمتها والمخاطر الأمنية والمجتمعية التي يمكن أن تشكلها.
تنص الاتفاقية أيضًا على أن الشركات ستطور أنظمة علامات مائية تسهل على الأشخاص التعرف على الصوت والصور الناتجة عن الذكاء الاصطناعي. تضيف OpenAI بالفعل علامات مائية إلى الصور التي ينتجها منشئ الصور Dall-E ، وقالت Google إنها تطور تقنية مماثلة للصور التي تم إنشاؤها بواسطة AI. مساعدة الناس على تمييز ما هو حقيقي وما هو مزيف هي مشكلة متنامية حيث يبدو أن الحملات السياسية تتجه إلى الذكاء الاصطناعي التوليدي قبل الانتخابات الأمريكية في عام 2024.
أدت التطورات الحديثة في أنظمة الذكاء الاصطناعي التوليدية التي يمكنها إنشاء نصوص أو صور إلى إطلاق سباق تسلح متجدد للذكاء الاصطناعي بين الشركات التي تكيف التكنولوجيا لمهام مثل البحث على الويب وكتابة خطابات التوصية. لكن الخوارزميات الجديدة أثارت أيضًا قلقًا متجددًا بشأن تعزيز الذكاء الاصطناعي للأنظمة الاجتماعية القمعية مثل التمييز على أساس الجنس أو العنصرية ، أو تعزيز التضليل الانتخابي ، أو التحول إلى أدوات للجرائم الإلكترونية. ونتيجة لذلك ، زاد المنظمون والمشرعون في أجزاء كثيرة من العالم – بما في ذلك واشنطن العاصمة – من الدعوات إلى تنظيم جديد ، بما في ذلك متطلبات تقييم الذكاء الاصطناعي قبل النشر.
من غير الواضح إلى أي مدى ستغير الاتفاقية كيفية عمل شركات الذكاء الاصطناعي الكبرى. بالفعل ، الوعي المتزايد بالجوانب السلبية المحتملة للتكنولوجيا جعل من الشائع لشركات التكنولوجيا توظيف أشخاص للعمل على سياسة واختبار الذكاء الاصطناعي. تمتلك Google فرقًا تختبر أنظمتها ، وتنشر بعض المعلومات ، مثل حالات الاستخدام المقصودة والاعتبارات الأخلاقية لبعض نماذج الذكاء الاصطناعي. تدعو Meta و OpenAI أحيانًا خبراء خارجيين لمحاولة كسر نماذجهم في نهج يطلق عليه اسم red-teaming.
قال رئيس Microsoft ، براد سميث ، في منشور بالمدونة: “بناءً على المبادئ الثابتة للسلامة والأمن والثقة ، تتناول الالتزامات الطوعية المخاطر التي تقدمها نماذج الذكاء الاصطناعي المتقدمة وتشجع اعتماد ممارسات محددة – مثل اختبار الفريق الأحمر ونشر تقارير الشفافية – من شأنها دفع النظام البيئي بأكمله إلى الأمام”.
لا تشمل المخاطر المجتمعية المحتملة التي تتعهد الاتفاقية الشركات بمراقبتها البصمة الكربونية لتدريب نماذج الذكاء الاصطناعي ، وهو القلق الذي يتم الاستشهاد به الآن بشكل شائع في الأبحاث حول تأثير أنظمة الذكاء الاصطناعي. يمكن أن يتطلب إنشاء نظام مثل ChatGPT الآلاف من معالجات الكمبيوتر عالية الطاقة ، والتي تعمل لفترات طويلة من الوقت.