أصدرت الحكومة الأمريكية قواعد جديدة، الخميس، تتطلب المزيد من الحذر والشفافية من الوكالات الفيدرالية التي تستخدم الذكاء الاصطناعي، قائلة إنها ضرورية لحماية الجمهور مع التقدم السريع للذكاء الاصطناعي. لكن السياسة الجديدة تتضمن أيضًا أحكامًا لتشجيع ابتكار الذكاء الاصطناعي في الوكالات الحكومية عندما يمكن استخدام التكنولوجيا لتحقيق الصالح العام.
وتأمل الولايات المتحدة أن تبرز كزعيم دولي من خلال نظامها الجديد للذكاء الاصطناعي الحكومي. وقالت نائبة الرئيس كامالا هاريس خلال مؤتمر صحفي قبل الإعلان إن الإدارة تخطط لأن تكون السياسات “بمثابة نموذج للعمل العالمي”. وقالت إن الولايات المتحدة “ستواصل دعوة جميع الدول إلى أن تحذو حذونا وتضع المصلحة العامة في المقام الأول عندما يتعلق الأمر باستخدام الحكومة للذكاء الاصطناعي”.
ستوجه السياسة الجديدة الصادرة عن مكتب الإدارة والميزانية بالبيت الأبيض استخدام الذكاء الاصطناعي في جميع أنحاء الحكومة الفيدرالية. فهو يتطلب المزيد من الشفافية فيما يتعلق بكيفية استخدام الحكومة للذكاء الاصطناعي ويدعو أيضًا إلى مزيد من تطوير التكنولوجيا داخل الوكالات الفيدرالية. وترى هذه السياسة أن الإدارة تحاول تحقيق التوازن بين تخفيف المخاطر الناجمة عن الاستخدام الأعمق للذكاء الاصطناعي – وهو مدى غير معروف – واستخدام أدوات الذكاء الاصطناعي لحل التهديدات الوجودية مثل تغير المناخ والأمراض.
ويضيف هذا الإعلان إلى سلسلة من التحركات التي اتخذتها إدارة بايدن لاحتضان الذكاء الاصطناعي وتقييده. في أكتوبر/تشرين الأول، وقع الرئيس بايدن على أمر تنفيذي شامل بشأن الذكاء الاصطناعي من شأنه أن يعزز توسع الحكومة في تكنولوجيا الذكاء الاصطناعي، ولكنه يتطلب أيضًا من أولئك الذين يصنعون نماذج كبيرة للذكاء الاصطناعي أن يقدموا للحكومة معلومات حول أنشطتهم، لصالح الأمن القومي.
وفي نوفمبر/تشرين الثاني، انضمت الولايات المتحدة إلى المملكة المتحدة والصين وأعضاء الاتحاد الأوروبي في التوقيع على إعلان يعترف بمخاطر التقدم السريع في الذكاء الاصطناعي ولكنه دعا أيضا إلى التعاون الدولي. وكشفت هاريس في الأسبوع نفسه عن إعلان غير ملزم بشأن الاستخدام العسكري للذكاء الاصطناعي، وقعته 31 دولة. فهو ينشئ حواجز حماية بدائية ويدعو إلى إلغاء تنشيط الأنظمة التي تنخرط في “سلوك غير مقصود”.
السياسة الجديدة لاستخدام الحكومة الأمريكية للذكاء الاصطناعي التي تم الإعلان عنها يوم الخميس تطلب من الوكالات اتخاذ عدة خطوات لمنع العواقب غير المقصودة لنشر الذكاء الاصطناعي. للبدء، يجب على الوكالات التحقق من أن أدوات الذكاء الاصطناعي التي تستخدمها لا تعرض الأمريكيين للخطر. على سبيل المثال، لكي تستخدم وزارة شؤون المحاربين القدامى الذكاء الاصطناعي في مستشفياتها، يجب عليها التحقق من أن التكنولوجيا لا تعطي تشخيصات متحيزة عنصريا. لقد وجدت الأبحاث أن أنظمة الذكاء الاصطناعي والخوارزميات الأخرى المستخدمة في التشخيص أو تحديد المرضى الذين يتلقون الرعاية يمكن أن تعزز أنماط التمييز التاريخية.
إذا لم تتمكن الوكالة من ضمان مثل هذه الضمانات، فيجب عليها التوقف عن استخدام نظام الذكاء الاصطناعي أو تبرير استمرار استخدامه. وتواجه الوكالات الأمريكية موعدًا نهائيًا في الأول من ديسمبر/كانون الأول للامتثال لهذه المتطلبات الجديدة.
وتطالب السياسة أيضًا بمزيد من الشفافية بشأن أنظمة الذكاء الاصطناعي الحكومية، مما يتطلب من الوكالات إصدار نماذج وبيانات وأكواد الذكاء الاصطناعي المملوكة للحكومة، طالما أن إصدار هذه المعلومات لا يشكل تهديدًا للجمهور أو الحكومة. يجب على الوكالات الإبلاغ علنًا كل عام عن كيفية استخدامها للذكاء الاصطناعي، والمخاطر المحتملة التي تشكلها الأنظمة، وكيفية التخفيف من هذه المخاطر.
وتتطلب القواعد الجديدة أيضًا من الوكالات الفيدرالية تعزيز خبراتها في مجال الذكاء الاصطناعي، وتكليف كل منها بتعيين مسؤول رئيسي للذكاء الاصطناعي للإشراف على كل الذكاء الاصطناعي المستخدم داخل تلك الوكالة. إنه دور يركز على تعزيز ابتكارات الذكاء الاصطناعي وكذلك مراقبة مخاطره.
ويقول المسؤولون إن التغييرات ستزيل أيضًا بعض العوائق التي تحول دون استخدام الذكاء الاصطناعي في الوكالات الفيدرالية، وهي خطوة قد تسهل إجراء تجارب أكثر مسؤولية مع الذكاء الاصطناعي. تتمتع هذه التكنولوجيا بالقدرة على مساعدة الوكالات على مراجعة الأضرار التي تعقب الكوارث الطبيعية، والتنبؤ بالطقس المتطرف، ورسم خريطة لانتشار الأمراض، والتحكم في الحركة الجوية.
تتجه البلدان في جميع أنحاء العالم لتنظيم الذكاء الاصطناعي. صوت الاتحاد الأوروبي في ديسمبر/كانون الأول لصالح إقرار قانون الذكاء الاصطناعي، وهو الإجراء الذي يحكم إنشاء واستخدام تقنيات الذكاء الاصطناعي، واعتمده رسميا في وقت سابق من هذا الشهر. وتعمل الصين أيضًا على تنظيم شامل للذكاء الاصطناعي.