ثانيًا ، يمكن أن يوجه أي وكالة فيدرالية تشتري نظامًا للذكاء الاصطناعي لديه القدرة على “التأثير بشكل هادف على حقوقنا أو فرصنا أو الوصول إلى الموارد أو الخدمات الهامة” للمطالبة بأن يمتثل النظام لهذه الممارسات ، وأن يقدم البائعون دليلًا على هذا الامتثال. هذا يعترف بسلطة الحكومة الفيدرالية كعميل يمكنه تشكيل ممارسات الأعمال. بعد كل شيء ، هو أكبر صاحب عمل في الدولة ويمكنه استخدام قوته الشرائية لإملاء أفضل الممارسات للخوارزميات المستخدمة ، على سبيل المثال ، لفحص واختيار المرشحين للوظائف.
ثالثًا ، يمكن أن يطلب الأمر التنفيذي من أي كيان يأخذ دولارات اتحادية (بما في ذلك الكيانات الحكومية والمحلية) التأكد من أن أنظمة الذكاء الاصطناعي التي يستخدمها تمتثل لأفضل الممارسات. هذا يعترف بالدور المهم للاستثمار الفيدرالي في الولايات والمحليات. على سبيل المثال ، لقد تورطت منظمة العفو الدولية في العديد من مكونات نظام العدالة الجنائية ، بما في ذلك الشرطة التنبؤية ، والمراقبة ، والحبس قبل المحاكمة ، وإصدار الأحكام ، والإفراج المشروط. على الرغم من أن معظم ممارسات إنفاذ القانون محلية ، إلا أن وزارة العدل تقدم منحًا فيدرالية إلى سلطات إنفاذ القانون على مستوى الولاية والمحلية ويمكنها إرفاق شروط بهذه المنح لكيفية استخدام هذه التكنولوجيا.
أخيرًا ، يمكن أن يوجه هذا الأمر التنفيذي الوكالات التي تتمتع بسلطة تنظيمية لتحديث وتوسيع عملية وضع القواعد الخاصة بها إلى العمليات داخل نطاق اختصاصها والتي تشمل الذكاء الاصطناعي. هناك بالفعل بعض الجهود الأولية الجارية لتنظيم الكيانات التي تستخدم الذكاء الاصطناعي فيما يتعلق بالأجهزة الطبية ، وخوارزميات التوظيف ، وتسجيل الائتمان ، ويمكن توسيع هذه المبادرات بشكل أكبر. تعد أنظمة مراقبة العمال وتقييم الممتلكات مجرد مثالين على المجالات التي قد تستفيد من هذا النوع من الإجراءات التنظيمية.
بطبيعة الحال ، من المرجح أن يثير نوع نظام الاختبار والمراقبة لأنظمة الذكاء الاصطناعي التي أشرت إليها هنا مزيجًا من المخاوف. قد يجادل البعض ، على سبيل المثال ، بأن البلدان الأخرى سوف تتفوق علينا إذا تباطأنا في وضع كل هذه الحواجز. لكن الدول الأخرى منشغلة بإقرار قوانينها الخاصة التي تضع حواجز حماية وقيود واسعة على أنظمة الذكاء الاصطناعي ، وأي شركة أمريكية تسعى للعمل في هذه البلدان يجب أن تمتثل لقواعدها على أي حال. الاتحاد الأوروبي على وشك إصدار قانون ذكاء اصطناعي موسع يتضمن العديد من الأحكام التي وصفتها أعلاه ، وحتى الصين تضع قيودًا على أنظمة الذكاء الاصطناعي المنتشرة تجاريًا والتي تتجاوز بكثير ما نرغب في قبوله حاليًا.
قد يعرب آخرون عن قلقهم من أن هذه المجموعة الواسعة والشاقة من المتطلبات قد يكون من الصعب على شركة صغيرة الامتثال لها. يمكن معالجة ذلك من خلال ربط المتطلبات بدرجة التأثير: يجب فحص جزء من البرامج التي يمكن أن تؤثر على سبل عيش الملايين بدقة ، بغض النظر عن حجم المطور أو صغر حجمه. وعلى الجانب الآخر ، لا ينبغي أن يخضع نظام الذكاء الاصطناعي الذي نستخدمه كأفراد لأغراض ترفيهية لنفس القيود والقيود.
من المحتمل أيضًا أن تكون هناك مخاوف بشأن ما إذا كانت هذه المتطلبات عملية على الإطلاق. هنا ، لا ينبغي الاستهانة بسلطة الحكومة الفيدرالية كصانع سوق. سيوفر الأمر التنفيذي الذي يدعو إلى أطر الاختبار والتحقق حوافز للشركات التي ترغب في ترجمة أفضل الممارسات إلى أنظمة اختبار تجارية قابلة للتطبيق. نشهد بالفعل أن قطاع الذكاء الاصطناعي المسؤول يملأ الشركات التي تقدم خدمات التدقيق والتقييم الحسابية ، وتصدر اتحادات الصناعة إرشادات مفصلة يتوقع من البائعين الامتثال لها ، والشركات الاستشارية الكبيرة التي تقدم إرشادات لعملائها. وهناك كيانات غير ربحية ومستقلة مثل البيانات والمجتمع (إخلاء المسؤولية: أجلس في مجلس إدارتها) التي أنشأت مختبرات جديدة بالكامل لتطوير أدوات لتقييم كيفية تأثير أنظمة الذكاء الاصطناعي على مجموعات مختلفة من الناس.
لقد أجرينا البحث ، وبنينا الأنظمة ، وحددنا الأضرار. هناك طرق راسخة للتأكد من أن التكنولوجيا التي نبنيها وننشرها يمكن أن تفيدنا جميعًا ، مع عدم إلحاق الضرر بأولئك الذين تعرضوا بالفعل لضربات من مجتمع غير متكافئ للغاية. لقد انتهى وقت الدراسة – لقد حان الوقت للبيت الأبيض لإصدار أمر تنفيذي ، واتخاذ إجراء.
رأي سلكي تنشر مقالات من قبل مساهمين خارجيين يمثلون مجموعة واسعة من وجهات النظر. اقرأ المزيد من الآراء هنا. إرسال افتتاحية في [email protected].