يمكن أن تكون أنظمة الذكاء الاصطناعي القوية ذات فائدة كبيرة للمجتمع وتساعدنا في معالجة بعض أكبر مشاكل العالم. تلعب نماذج التعلم الآلي بالفعل دورًا مهمًا في تشخيص الأمراض ، وتسريع البحث العلمي ، وتعزيز الإنتاجية الاقتصادية وتقليل استخدام الطاقة من خلال تحسين تدفق الكهرباء على شبكات الطاقة ، على سبيل المثال.
ستكون مأساة إذا تعرضت هذه المكاسب للخطر نتيجة لرد الفعل العنيف ضد التكنولوجيا. لكن هذا الخطر يتزايد مع تكاثر إساءة استخدام تكنولوجيا الذكاء الاصطناعي ، في مجالات مثل التمييز غير العادل والتضليل والاحتيال ، كما حذر جيفري هينتون ، أحد “عراب الذكاء الاصطناعي” الشهر الماضي بشأن الاستقالة من Google. وهذا يجعل من الضروري أن تتحرك الحكومات بسرعة لتنظيم التكنولوجيا بشكل مناسب ومتناسب.
ستكون كيفية القيام بذلك أحد أكبر تحديات الحوكمة في عصرنا. تتحدى أنظمة التعلم الآلي ، التي يمكن نشرها عبر ملايين حالات الاستخدام ، التصنيف السهل ويمكن أن تثير العديد من المشكلات للمنظمين. يمكن أيضًا استخدام هذه التكنولوجيا سريعة التطور بطرق منتشرة وغير مرئية ومنتشرة في كل مكان ، على نطاق واسع. ولكن من المشجع أن المنظمين في جميع أنحاء العالم بدأوا أخيرًا في معالجة هذه القضايا.
في الأسبوع الماضي ، استدعى البيت الأبيض رؤساء أكبر شركات الذكاء الاصطناعي لاستكشاف فوائد ومخاطر التكنولوجيا قبل تحديد الإرشادات المستقبلية. لقد حقق الاتحاد الأوروبي والصين تقدمًا جيدًا بالفعل في وضع القواعد واللوائح التي تحكم الذكاء الاصطناعي. وستقوم سلطة المنافسة في المملكة المتحدة بإجراء مراجعة لسوق الذكاء الاصطناعي.
تتمثل الخطوة الأولى في أن توافق صناعة التكنولوجيا نفسها على بعض المبادئ المشتركة وتنفذها بشأن الشفافية والمساءلة والإنصاف. يجب ألا تحاول الشركات أبدًا أن تمرر روبوتات المحادثة كبشر ، على سبيل المثال. ستكون الخطوة الثانية لجميع الجهات التنظيمية ، في مجالات مثل قانون العمل ، والأسواق المالية وأسواق المستهلك ، وسياسة المنافسة ، وحماية البيانات ، والخصوصية وحقوق الإنسان ، لتعديل القواعد الحالية لمراعاة المخاطر المحددة التي يثيرها الذكاء الاصطناعي. والثالث هو أن تعمل الوكالات الحكومية والجامعات على تعميق خبراتها التكنولوجية لتقليل مخاطر الاستحواذ على الصناعة.
علاوة على ذلك ، ينبغي النظر في نظامين تنظيميين شاملين للذكاء الاصطناعي ، حتى لو لم يكن أي منهما مناسبًا لحجم التحدي. قد يعني أحد الأنظمة ، استنادًا إلى المبدأ الوقائي ، أن الخوارزميات المستخدمة في عدد قليل من المجالات الحرجة للحياة والموت ، مثل الرعاية الصحية والنظام القضائي والجيش ، ستحتاج إلى موافقة مسبقة قبل استخدامها. يمكن أن يعمل هذا بنفس الطريقة التي تعمل بها إدارة الغذاء والدواء الأمريكية ، التي تفحص الأدوية الصيدلانية قبل إطلاقها ولها صلاحيات أوسع لحماية وتعزيز الصحة العامة.
أما النموذج الثاني الأكثر مرونة فيمكن أن يعتمد على “الحوكمة بالصدفة” كما هو معمول به في صناعة الطيران. على الرغم من أن هذا يبدو مزعجًا ، إلا أنه عمل بشكل فعال للغاية في رفع معايير السلامة الجوية على مدار العقود القليلة الماضية. تتمتع سلطات الطيران الدولية بسلطة فرض التغييرات على جميع مصنعي الطائرات وشركات الطيران بمجرد اكتشاف الخطأ. يمكن استخدام شيء مشابه عند اكتشاف عيوب ضارة في نماذج الذكاء الاصطناعي التي تواجه المستهلك ، مثل السيارات ذاتية القيادة.
دعا العديد من الباحثين البارزين في الصناعة إلى وقف تطوير نماذج الذكاء الاصطناعي التوليدية الرائدة. لكن الوقفات المؤقتة لا طائل من ورائها ما لم يكن بالإمكان وضع أنظمة حكم أوضح. حتى صناعة التكنولوجيا تقبل أنها تحتاج الآن إلى قواعد أوضح للطريق ويجب أن تعمل بشكل بناء مع الحكومات ومنظمات الحقوق المدنية للمساعدة في كتابتها. بعد كل شيء ، يمكن للسيارات القيادة بشكل أسرع حول المنعطفات عند تزويدها بفرامل فعالة.