أعلن البيت الأبيض أن مايكروسوفت وجوجل وشركات ذكاء اصطناعي رائدة أخرى تعهدت يوم الجمعة بوضع أنظمة ذكاء اصطناعي جديدة من خلال اختبارات خارجية قبل إصدارها للجمهور وبوضوح المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي.
تعد التعهدات جزءًا من سلسلة من الالتزامات الطوعية التي وافق عليها البيت الأبيض وسبع شركات رائدة في مجال الذكاء الاصطناعي – والتي تشمل أيضًا Amazon و Meta و OpenAI و Anthropic و Inflection – تهدف إلى جعل أنظمة ومنتجات الذكاء الاصطناعي أكثر أمانًا وجدارة بالثقة بينما يطور الكونجرس والبيت الأبيض لوائح أكثر شمولاً للتحكم في الصناعة سريعة النمو. سيلتقي الرئيس جو بايدن مع كبار المسؤولين التنفيذيين من جميع الشركات السبع في البيت الأبيض يوم الجمعة.
يقر مسؤولو البيت الأبيض بأن بعض الشركات قد سنت بالفعل بعض الالتزامات ولكنهم يجادلون بأنهم سوف يرفعون ككل “معايير السلامة والأمن والثقة في الذكاء الاصطناعي” وستكون بمثابة “جسر إلى التنظيم”.
قال نائب رئيس موظفي البيت الأبيض ، بروس ريد ، الذي كان يدير عملية سياسة الذكاء الاصطناعي ، في مقابلة: “إنها خطوة أولى ، إنها جسر إلى حيث نحتاج إلى الذهاب”. ستساعد الصناعة والحكومة على تطوير القدرات للتأكد من أن الذكاء الاصطناعي آمن ومأمون. ولقد دفعنا للتحرك بسرعة كبيرة لأن هذه التكنولوجيا تتحرك أبعد وأسرع من أي شيء رأيناه من قبل “.
في حين أن معظم الشركات تجري بالفعل تمارين داخلية “للفرق الحمراء” ، فإن الالتزامات ستمثل المرة الأولى التي تلتزم فيها جميعًا بالسماح للخبراء الخارجيين باختبار أنظمتها قبل طرحها للجمهور. تم تصميم تمرين الفريق الأحمر لمحاكاة الخطأ الذي يمكن أن يحدث في تقنية معينة – مثل الهجوم الإلكتروني أو احتمال استخدامها من قبل الجهات الفاعلة الخبيثة – ويسمح للشركات بتحديد أوجه القصور بشكل استباقي ومنع النتائج السلبية.
قال ريد إن تشكيل الفريق الأحمر الخارجي “سيساعد على تمهيد الطريق للرقابة الحكومية والتنظيم” ، مما قد يضع الأساس لذلك الاختبار الخارجي الذي يجب أن يقوم به منظم حكومي أو مرخص.
يمكن أن تؤدي الالتزامات أيضًا إلى وضع علامة مائية على نطاق واسع للمحتوى الصوتي والمرئي الذي تم إنشاؤه بواسطة الذكاء الاصطناعي بهدف مكافحة الاحتيال والمعلومات المضللة.
التزمت الشركات أيضًا بالاستثمار في الأمن السيبراني و “ضمانات التهديدات الداخلية” ، لا سيما لحماية أوزان نماذج الذكاء الاصطناعي ، والتي تعد أساسًا قاعدة المعرفة التي تعتمد عليها أنظمة الذكاء الاصطناعي ؛ إنشاء آلية قوية للأطراف الثالثة للإبلاغ عن نقاط ضعف النظام ؛ إعطاء الأولوية للبحوث حول المخاطر المجتمعية للذكاء الاصطناعي ؛ وتطوير ونشر أنظمة الذكاء الاصطناعي “للمساعدة في مواجهة أكبر تحديات المجتمع” ، وفقًا للبيت الأبيض.
جميع الالتزامات طوعية وأقر مسؤولو البيت الأبيض بعدم وجود آلية تنفيذ لضمان التزام الشركات بالالتزامات ، وبعضها يفتقر أيضًا إلى التحديد.
أشادت منظمة Common Sense Media ، وهي منظمة لسلامة الأطفال على الإنترنت ، بالبيت الأبيض لاتخاذه خطوات لتأسيس حواجز حماية للذكاء الاصطناعي ، لكنها حذرت من أن “التاريخ سيشير إلى أن العديد من شركات التكنولوجيا لا تسير في الواقع على تعهد طوعي بالتصرف بمسؤولية ودعم اللوائح القوية”.
قال جيمس ستاير الرئيس التنفيذي لشركة Common Sense Media في بيان: “إذا تعلمنا أي شيء من العقد الماضي ومن سوء الإدارة الكامل لحوكمة وسائل التواصل الاجتماعي ، فإن العديد من الشركات تقدم الكثير من التشدق.” “ومن ثم يعطون الأولوية لأرباحهم لدرجة أنهم لن يحاسبوا أنفسهم على كيفية تأثير منتجاتهم على الشعب الأمريكي ، وخاصة الأطفال والعائلات.”
يلوح فشل الحكومة الفيدرالية في تنظيم شركات وسائل التواصل الاجتماعي منذ بدايتها – والمقاومة من تلك الشركات – بشكل كبير بالنسبة لمسؤولي البيت الأبيض حيث بدأوا في صياغة لوائح منظمة العفو الدولية وإجراءات تنفيذية محتملة في الأشهر الأخيرة.
قال ريد: “الشيء الرئيسي الذي أكدناه خلال المناقشات مع الشركات هو أننا يجب أن نجعل هذا الأمر قويًا قدر الإمكان”. “لقد أخطأت صناعة التكنولوجيا في إبعاد أي نوع من الرقابة والتشريعات واللوائح قبل عقد من الزمن ، وأعتقد أن الذكاء الاصطناعي يتقدم بسرعة أكبر من ذلك ، ومن المهم أن يكون هذا الجسر إلى التنظيم قويًا.”
تمت صياغة الالتزامات خلال أشهر طويلة بين شركات الذكاء الاصطناعي والبيت الأبيض والتي بدأت في مايو عندما جاءت مجموعة من المديرين التنفيذيين للذكاء الاصطناعي إلى البيت الأبيض للقاء بايدن ونائبة الرئيس كامالا هاريس ومسؤولي البيت الأبيض. كما سعى البيت الأبيض إلى الحصول على مدخلات من خبراء أخلاقيات وسلامة الذكاء الاصطناعي غير العاملين في الصناعة.
يعمل مسؤولو البيت الأبيض على تجاوز الالتزامات الطوعية ، وإعداد سلسلة من الإجراءات التنفيذية ، ومن المتوقع الكشف عن أولها في وقت لاحق من هذا الصيف. كما يعمل المسؤولون عن كثب مع المشرعين في الكابيتول هيل لتطوير تشريعات أكثر شمولاً لتنظيم الذكاء الاصطناعي.
في غضون ذلك ، يقول مسؤولو البيت الأبيض إن الشركات ستبدأ “على الفور” في تنفيذ الالتزامات الطوعية وتأمل أن توقع الشركات الأخرى في المستقبل.
“نتوقع أن ترى الشركات الأخرى كيف عليها أيضًا الالتزام بالوفاء بمعايير السلامة والأمن والثقة. وقد يختارون – وسنرحب باختيارهم – الانضمام إلى هذه الالتزامات ، “قال مسؤول في البيت الأبيض.