هناك تغيير آخر حث عليه المشرعون وشهود الصناعة على حد سواء كان يتطلب الكشف لإبلاغ الناس عندما يتحدثون مع نموذج لغوي وليس بشريًا ، أو عندما تتخذ تقنية الذكاء الاصطناعي قرارات مهمة لها عواقب تغير الحياة. يمكن أن يكون أحد الأمثلة شرط الكشف للكشف عن متى تكون مطابقة التعرف على الوجه هي أساس الاعتقال أو الاتهام الجنائي.
تأتي جلسة الاستماع في مجلس الشيوخ بعد الاهتمام المتزايد من الحكومات الأمريكية والأوروبية ، وحتى بعض المطلعين على التكنولوجيا ، بوضع حواجز حماية جديدة على الذكاء الاصطناعي لمنعه من إيذاء الناس. في مارس / آذار ، دعت رسالة جماعية موقعة من أسماء كبرى في مجال التكنولوجيا والذكاء الاصطناعي إلى توقف مدته ستة أشهر عن تطوير الذكاء الاصطناعي ، وفي هذا الشهر ، استدعى البيت الأبيض المديرين التنفيذيين من OpenAI و Microsoft وشركات أخرى وأعلن أنه يدعم الجمهور. مسابقة القرصنة لفحص أنظمة الذكاء الاصطناعي التوليدية. يقوم الاتحاد الأوروبي أيضًا بوضع اللمسات الأخيرة على قانون شامل يسمى قانون الذكاء الاصطناعي.
حث مونتغمري من شركة IBM الكونجرس أمس على أخذ الإلهام من قانون الذكاء الاصطناعي ، الذي يصنف أنظمة الذكاء الاصطناعي حسب المخاطر التي تشكلها على الناس أو المجتمع ويضع قواعد – أو حتى يحظر – وفقًا لذلك. كما أيدت فكرة تشجيع التنظيم الذاتي ، وسلطت الضوء على موقعها في مجلس أخلاقيات الذكاء الاصطناعي في IBM ، على الرغم من أن هذه الهياكل في Google و Axon أصبحت غارقة في الجدل.
قال مركز ابتكار البيانات ، وهو مركز أبحاث تقني ، في خطاب صدر بعد سماع أمس أن الولايات المتحدة لا تحتاج إلى منظم جديد للذكاء الاصطناعي. وجاء في الرسالة: “مثلما سيكون من غير الحكمة أن يكون هناك وكالة حكومية واحدة تنظم كل عملية صنع القرار البشري ، سيكون من غير الحكمة أيضًا أن يكون هناك وكالة واحدة تنظم كل الذكاء الاصطناعي” ، قالت الرسالة.
يقول هودان عمر ، أحد كبار المحللين في المركز: “لا أعتقد أنه عملي ، وليس ما يجب أن يفكروا فيه الآن”.
يقول عمر إن فكرة تشغيل وكالة جديدة بالكامل للذكاء الاصطناعي أمر بعيد الاحتمال نظرًا لأن الكونجرس لم يتابع بعد الإصلاحات التقنية الضرورية الأخرى ، مثل الحاجة إلى حماية خصوصية البيانات الشاملة. إنها تعتقد أنه من الأفضل تحديث القوانين الحالية والسماح للوكالات الفيدرالية بإضافة رقابة الذكاء الاصطناعي إلى عملها التنظيمي الحالي.
أصدرت لجنة تكافؤ فرص العمل ووزارة العدل توجيهات الصيف الماضي حول كيف يمكن للشركات التي تستخدم الخوارزميات في التوظيف – الخوارزميات التي قد تتوقع أن ينظر الناس أو يتصرفون بطريقة معينة – أن تظل ملتزمة بقانون الأمريكيين ذوي الإعاقة. توضح هذه الإرشادات كيف يمكن أن تتداخل سياسة الذكاء الاصطناعي مع القانون الحالي وإشراك العديد من المجتمعات المختلفة وحالات الاستخدام.
يقول أليكس إنجلر ، الزميل في معهد بروكينغز ، إنه قلق من أن الولايات المتحدة قد تكرر المشاكل التي أغرقت قوانين الخصوصية الفيدرالية في الخريف الماضي. ألغى المشرعون في كاليفورنيا مشروع القانون التاريخي الذين حجبوا أصواتهم لأن القانون سيبطل تشريعات الخصوصية الخاصة بالولاية. يقول إنجلر: “هذا مصدر قلق جيد بما فيه الكفاية”. “الآن هل هذا مصدر قلق جيد بما يكفي لدرجة أنك ستقول إننا لن نحظى بحماية المجتمع المدني للذكاء الاصطناعي؟ لا أعلم عن ذلك “.
على الرغم من أن جلسة الاستماع تطرقت إلى الأضرار المحتملة للذكاء الاصطناعي – من المعلومات المضللة عن الانتخابات إلى المخاطر المفاهيمية التي لم توجد بعد ، مثل الذكاء الاصطناعي المدرك للذات – إلا أن أنظمة الذكاء الاصطناعي التوليدية مثل ChatGPT التي ألهمت السمع حظيت بأكبر قدر من الاهتمام. جادل العديد من أعضاء مجلس الشيوخ بأنهم يمكن أن يزيدوا عدم المساواة والاحتكار. قال السناتور كوري بوكر ، وهو ديمقراطي من نيوجيرسي شارك في رعاية تنظيم الذكاء الاصطناعي في الماضي ودعم حظرًا فيدراليًا على التعرف على الوجوه ، إن الطريقة الوحيدة للحماية من ذلك ، هي أن يضع الكونجرس قواعد الطريق.