أعلن البيت الأبيض يوم الخميس عن سلسلة من الإجراءات لمواجهة تحديات الذكاء الاصطناعي ، مدفوعة بالشعبية المفاجئة لأدوات مثل ChatGPT ووسط مخاوف متزايدة بشأن مخاطر التكنولوجيا المحتملة للتمييز والمعلومات المضللة والخصوصية.
قال البيت الأبيض إن الحكومة الأمريكية تخطط لإدخال سياسات تحدد كيفية قيام الوكالات الفيدرالية بشراء واستخدام أنظمة الذكاء الاصطناعي. يمكن أن تؤثر هذه الخطوة بشكل كبير على سوق منتجات الذكاء الاصطناعي وتتحكم في كيفية تفاعل الأمريكيين مع الذكاء الاصطناعي على مواقع الويب الحكومية ، وفي نقاط التفتيش الأمنية وفي أماكن أخرى.
وأضاف البيت الأبيض أن المؤسسة الوطنية للعلوم ستنفق أيضًا 140 مليون دولار لتعزيز البحث والتطوير في مجال الذكاء الاصطناعي. ستُستخدم الأموال لإنشاء مراكز بحثية تسعى إلى تطبيق الذكاء الاصطناعي على قضايا مثل تغير المناخ والزراعة والصحة العامة ، وفقًا للإدارة.
جاءت الخطة في نفس اليوم الذي اجتمعت فيه نائبة الرئيس كامالا هاريس ومسؤولون إداريون آخرون مع الرؤساء التنفيذيين لشركة Google و Microsoft و OpenAI منشئ ChatGPT و Anthropic للتأكيد على أهمية التطوير الأخلاقي والمسؤول للذكاء الاصطناعي. ويتزامن ذلك مع تحقيق حكومي بريطاني بدأ الخميس في مخاطر وفوائد الذكاء الاصطناعي.
قال مسؤول كبير في إدارة بايدن للصحفيين في مؤتمر عبر الهاتف قبل الاجتماع: “تتحمل شركات التكنولوجيا مسؤولية أساسية للتأكد من أن منتجاتها آمنة ومأمونة ، وأنها تحمي حقوق الناس قبل نشرها أو الإعلان عنها”.
أشار المسؤولون في المكالمة إلى مجموعة من المخاطر التي يواجهها الجمهور في التبني الواسع النطاق لأدوات الذكاء الاصطناعي ، بما في ذلك الاستخدام المحتمل للتزييف العميق والمعلومات المضللة التي يمكن أن تقوض العملية الديمقراطية. إن فقدان الوظائف المرتبط بالأتمتة المتزايدة ، واتخاذ القرارات الخوارزمية المنحازة ، والمخاطر المادية الناشئة عن المركبات ذاتية القيادة ، وتهديد المتسللين الخبيرين المدعومين من الذكاء الاصطناعي ، هي أيضًا على قائمة مخاوف البيت الأبيض.
مع بدء اجتماع يوم الخميس ، توقف الرئيس جو بايدن في زيارة مفاجئة ، حسبما قال شخص مطلع على الوضع لشبكة CNN. قال مسؤول في البيت الأبيض إن بايدن قد تم إطلاعه بشكل مكثف على ChatGPT وحتى أنه اختبرها بنفسه.
في قراءة تالية للاجتماع ، قال البيت الأبيض إن بايدن وهاريس “كانا واضحين أنه من أجل تحقيق الفوائد التي قد تأتي من التقدم في الذكاء الاصطناعي ، من الضروري التخفيف من المخاطر الحالية والمحتملة التي يشكلها الذكاء الاصطناعي على الأفراد والمجتمع ، والأمن القومي “.
بايدن “شدد على أن الشركات تتحمل مسؤولية أساسية للتأكد من أن منتجاتها آمنة ومأمونة قبل نشرها أو الإعلان عنها” ، وفقًا للبيت الأبيض.
في غضون ذلك ، ذكّر هاريس الشركات بأن لديها “مسؤولية أخلاقية ومعنوية وقانونية لضمان سلامة وأمن منتجاتها” ، وأنهم سيُحاسبون بموجب القوانين الأمريكية الحالية ، وفقًا لبيان البيت الأبيض في الاجتماع.
كما أثار هاريس أيضًا احتمال وجود تنظيم مستقبلي إضافي للصناعة سريعة التطور.
وقال هاريس في بيان: “يجب على الحكومة والشركات الخاصة وغيرها في المجتمع مواجهة هذه التحديات معًا”. “أنا والرئيس بايدن ملتزمون بالقيام بدورنا – بما في ذلك من خلال تطوير اللوائح الجديدة المحتملة ودعم التشريعات الجديدة – حتى يتمكن الجميع من الاستفادة بأمان من الابتكارات التكنولوجية.”
وفي حديثها إلى المراسلين عقب الاجتماع ، وصفت السكرتيرة الصحفية للبيت الأبيض كارين جان بيير المحادثة بأنها “صادقة” و “صريحة”.
وقالت: “كان لدينا هنا أربعة رؤساء تنفيذيين اجتمعوا مع نائب الرئيس والرئيس”. “هذا يوضح مدى جدية تعاملنا مع الأمر.”
قال جان بيير إن مزيدًا من الشفافية من شركات الذكاء الاصطناعي ، بما في ذلك منح الجمهور القدرة على تقييم منتجاتهم وتقييمها ، سيكون أمرًا بالغ الأهمية لضمان أن تكون أنظمة الذكاء الاصطناعي آمنة وجديرة بالثقة.
إحدى الشركات التي استثمرت بكثافة في الذكاء الاصطناعي والتي كانت غائبة بشكل ملحوظ عن اجتماع يوم الخميس كانت Meta ، الشركة الأم لـ Facebook. وصف مارك زوكربيرج ، الرئيس التنفيذي لشركة Meta ، تطوير الذكاء الاصطناعي بأنه “أكبر استثمار منفرد للشركة” وقال إن التكنولوجيا سيتم دمجها في جميع منتجاتها. لكنها لا تقدم حاليًا أداة شبيهة بـ ChatGPT بين خدماتها.
قال مسؤول في الإدارة لشبكة CNN يوم الخميس إن ميتا لم تتم دعوته إلى قمة الرؤساء التنفيذيين. قال المسؤول لشبكة CNN: “لقد ركزت على الشركات الرائدة حاليًا في المجال ، لا سيما على جانب المنتج الذي يواجه المستهلك”.
وامتنع ميتا عن التعليق على الأمر.
يمثل الاجتماع أحدث مثال على اعتراف الحكومة الفيدرالية بالمخاوف من التطور السريع ونشر أدوات الذكاء الاصطناعي الجديدة ، ومحاولة إيجاد طرق لمعالجة بعض المخاطر.
في شهادتهم أمام الكونجرس ، جادل أعضاء في لجنة التجارة الفيدرالية بأن الذكاء الاصطناعي يمكن أن “يشحن” عمليات الاحتيال والاحتيال. كتبت رئيسها ، لينا خان ، في مقال رأي في صحيفة نيويورك تايمز هذا الأسبوع أن الحكومة الأمريكية لديها سلطة قانونية واسعة لتنظيم الذكاء الاصطناعي من خلال الاعتماد على تفويضها لحماية المستهلكين والمنافسة.
في العام الماضي ، كشفت إدارة بايدن النقاب عن مقترح لقانون حقوق الذكاء الاصطناعي الذي يدعو المطورين إلى احترام مبادئ الخصوصية والأمان والمساواة في الحقوق أثناء قيامهم بإنشاء أدوات جديدة للذكاء الاصطناعي.
في وقت سابق من هذا العام ، أصدرت وزارة التجارة إرشادات طوعية لإدارة المخاطر للذكاء الاصطناعي قالت إنها يمكن أن تساعد المنظمات والشركات على “إدارة ورسم خرائط وقياس وإدارة” المخاطر المحتملة في كل جزء من دورة التطوير. في أبريل ، قالت الوزارة أيضًا إنها تسعى للحصول على مدخلات عامة بشأن أفضل السياسات لتنظيم الذكاء الاصطناعي ، بما في ذلك من خلال عمليات التدقيق والتنظيم الذاتي للصناعة.
حكومة الولايات المتحدة ليست وحدها التي تسعى إلى تشكيل تطوير الذكاء الاصطناعي. يتوقع المسؤولون الأوروبيون صياغة تشريعات للذكاء الاصطناعي في أقرب وقت هذا العام والتي يمكن أن يكون لها آثار كبيرة على شركات الذكاء الاصطناعي في جميع أنحاء العالم.
– ساهم دونالد جود من سي إن إن وأرليت ساينز ودوني أوسوليفان في هذا التقرير.