يقول الخبراء لقناة Fox News Digital إن خطة إدارة بايدن لإنشاء لجنة سلامة للذكاء الاصطناعي قد تكون “ضرورية” ولكنها ليست “كافية” لمعالجة المخاطر المحتملة للتكنولوجيا المزدهرة.
وقال فيل سيجل، مؤسس مركز الاستعداد المتقدم ومحاكاة الاستجابة للتهديدات (CAPTRS): “الاحتمالات هي أن (الخوارزمية) ليست هي المكان الذي تكمن فيه غالبية المخاطر”. “من المرجح أن الخطر يكمن في المستخدمين إما استخدامه بشكل سيء أو مجرد إساءة استخدامه.”
وقع الرئيس بايدن يوم الاثنين على أمر تنفيذي قال البيت الأبيض إنه يتضمن “الإجراءات الأكثر شمولاً على الإطلاق لحماية الأمريكيين من المخاطر المحتملة لأنظمة الذكاء الاصطناعي” – وهي مطالبة الشركات بإخطار الحكومة عند تدريب نماذج جديدة ومشاركة نتائج ” قراءة اختبارات سلامة الفريق.”
وقال البيت الأبيض عن الأمر التنفيذي: “ستضمن هذه الإجراءات أن تكون أنظمة الذكاء الاصطناعي آمنة ومأمونة وجديرة بالثقة قبل أن تعلنها الشركات للعامة”.
الخبراء يوضحون بالتفصيل كيف يمكن لأمريكا الفوز في السباق ضد الصين من أجل التفوق التكنولوجي العسكري
وأعلنت الإدارة أيضًا عن إنشاء معهد سلامة الذكاء الاصطناعي – تحت إشراف المعهد الوطني للمعايير والتكنولوجيا – والذي “سيضع معايير صارمة لاختبارات الفريق الأحمر المكثفة لضمان السلامة قبل الإصدار العام”.
وفي حديثها في قمة بلتشلي بارك في المملكة المتحدة، قالت وزيرة التجارة الأمريكية جينا رايموندو يوم الأربعاء إن إدارة بايدن ستستخدم معهد سلامة الذكاء الاصطناعي الجديد لتقييم المخاطر المعروفة والناشئة لنماذج الذكاء الاصطناعي “الحدودية” وأن القطاع الخاص “يجب أن يتحرك” أعلى.”
وقارن سيجل نهج البيت الأبيض بنهج شركة الطيران التي تتحقق من خطة “السلامة” ولكن لا تتحقق من إجراءات الصيانة أو تدريب الطيارين أو أطقم العمل.
ما هو الذكاء الاصطناعي (AI)؟
وقال “كل شيء ضروري”. “وبالمثل، لا يمكن لمجلس الأمان التحقق من الخوارزميات فحسب. بل يحتاج إلى التحقق من الإجراءات للمستخدمين.”
وتابع: “يمكننا أن نجعل مقدمي التكنولوجيا يساعدون”. وأضاف سيجل: “مثلما أن البنوك توفر إجراءات KYC (اعرف عميلك) لمنع غسيل الأموال، فيمكننا أن نطلب من مقدمي التكنولوجيا تقديم KYC لسلامة تطبيقات المستخدم”.
يعالج مركز الاستعداد المتقدم ومحاكاة الاستجابة للتهديدات هذه الأنواع من المشكلات بانتظام، وينظر في عملية صنع القرار والحدس بين المستخدمين في مجالات الصحة العامة والهندسة والسياسة العامة وغيرها من الصناعات وتدريبهم على الألعاب لتحسين تلك المهارات. على هذا النحو، يظل سلوك المستخدم مصدر قلق رئيسي – تمامًا كما هو الحال مع الذكاء الاصطناعي.
يقول رئيس وكالة المخابرات المركزية السابق إن مهمة أمتنا ليست إبقاء الحلفاء في “طليعة” تطوير الذكاء الاصطناعي
وقد سلط العديد من منتقدي الذكاء الاصطناعي منذ وقت سابق من هذا العام الضوء على المخاطر التي لا تعد ولا تحصى التي تمثلها التكنولوجيا، بدءًا من تقنية التزييف العميق التي تعطل الانتخابات وتوليد مواد إساءة معاملة الأطفال إلى استخدام الخوارزميات المولدة بواسطة الذكاء الاصطناعي لاختراق أنظمة الأمان الرقمية الأكثر تعقيدًا والوصول إلى المعلومات الحساسة.
أقر كريستوفر ألكساندر، كبير مسؤولي التحليلات في مجموعة بايونير ديفيلوبمنت، أنه على الرغم من أنها فكرة جيدة إجبار الشركات على مشاركة معلوماتها بدلاً من إخفائها – وهو ما وصفه أحد الخبراء سابقًا لفوكس نيوز ديجيتال بأنه “الصندوق الأسود” للمحتوى – يبدو أن النظام الحالي “لا يحتوي على عملية استئناف شفافة”.
وقال ألكسندر لشبكة فوكس نيوز ديجيتال إنه يشعر بالقلق أيضًا من أن “الأجندات السياسية يمكن أن تؤدي إلى تحيز عملية الموافقة على السلامة” لأن الوكالة، التي تم إنشاؤها بموجب أمر تنفيذي، تضع إدارتها بناءً على طلب الرئيس الحالي.
وقد أثار بعض النقاد بالفعل مخاوف بشأن التحيز السياسي، كما هو الحال مع مطالبة الصين بأي تكنولوجيا جديدة للذكاء الاصطناعي لتتوافق مع القيم الاشتراكية للحزب الحاكم.
ساهم جريج نورمان من فوكس نيوز ديجيتال ورويترز في إعداد هذا التقرير.