لقد أذكى ChatGPT آمال جديدة حول إمكانات الذكاء الاصطناعي – ولكن أيضًا مخاوف جديدة. انضم البيت الأبيض اليوم إلى مجموعة القلق ، وأعلن أنه سيدعم تمرينًا جماعيًا للقرصنة في مؤتمر Defcon الأمني هذا الصيف لفحص أنظمة الذكاء الاصطناعي التوليدية من الشركات بما في ذلك Google.
قال مكتب البيت الأبيض لسياسة العلوم والتكنولوجيا أيضًا أنه سيتم تحويل 140 مليون دولار نحو إطلاق سبعة معاهد بحثية وطنية جديدة للذكاء الاصطناعي تركز على تطوير الذكاء الاصطناعي الأخلاقي التحويلي للصالح العام ، وبذلك يصل العدد الإجمالي إلى 25 على الصعيد الوطني.
جاء الإعلان قبل ساعات من اجتماع حول الفرص والمخاطر التي قدمها الذكاء الاصطناعي بين نائب الرئيس كامالا هاريس والمديرين التنفيذيين من Google و Microsoft بالإضافة إلى الشركات الناشئة Anthropic و OpenAI ، اللتين أنشأتا ChatGPT.
يأتي تدخل البيت الأبيض للذكاء الاصطناعي مع تزايد الرغبة في تنظيم التكنولوجيا في جميع أنحاء العالم ، مدفوعة بالضجيج والاستثمار الذي أحدثته ChatGPT. في برلمان الاتحاد الأوروبي ، يتفاوض المشرعون على التحديثات النهائية لقانون الذكاء الاصطناعي الشامل الذي سيقيد وحتى يحظر بعض استخدامات الذكاء الاصطناعي ، بما في ذلك إضافة تغطية للذكاء الاصطناعي التوليدي. يفكر المشرعون البرازيليون أيضًا في تنظيم موجه نحو حماية حقوق الإنسان في عصر الذكاء الاصطناعي. أعلنت الحكومة الصينية الشهر الماضي عن مسودة اللائحة التوليدية للذكاء الاصطناعي.
في واشنطن العاصمة ، الأسبوع الماضي ، قدم السناتور الديمقراطي مايكل بينيت مشروع قانون من شأنه أن ينشئ فريق عمل للذكاء الاصطناعي يركز على حماية خصوصية المواطنين والحقوق المدنية. في الأسبوع الماضي أيضًا ، تعهدت أربع وكالات تنظيمية أمريكية ، بما في ذلك لجنة التجارة الفيدرالية ووزارة العدل ، باستخدام القوانين الحالية لحماية حقوق المواطنين الأمريكيين في عصر الذكاء الاصطناعي. هذا الأسبوع ، أكد مكتب السناتور الديمقراطي رون وايدن خططًا للمحاولة مرة أخرى لتمرير قانون يسمى قانون المحاسبة الخوارزمية ، والذي يتطلب من الشركات تقييم الخوارزميات الخاصة بها والكشف عن وقت استخدام نظام آلي.
قال أراتي برابهاكار ، مدير مكتب البيت الأبيض لسياسة العلوم والتكنولوجيا ، في مارس / آذار في حدث استضافته أكسيوس ، إن التدقيق الحكومي في الذكاء الاصطناعي كان ضروريًا للتكنولوجيا ليكون مفيدًا. قال برابهاكار: “إذا أردنا اغتنام هذه الفرص ، فعلينا أن نبدأ بالتصارع مع المخاطر”.
سيجرى تمرين القرصنة المدعوم من البيت الأبيض والمصمم لكشف نقاط الضعف في أنظمة الذكاء الاصطناعي التوليدية هذا الصيف في مؤتمر Defcon الأمني. سيُطلب من الآلاف من المشاركين بما في ذلك المتسللين وخبراء السياسات استكشاف كيفية توافق النماذج التوليدية من الشركات بما في ذلك Google و Nvidia و Stability AI مع قانون حقوق الذكاء الاصطناعي لإدارة بايدن الذي تم الإعلان عنه في عام 2022 وإصدار إطار إدارة مخاطر المعهد الوطني للمعايير والتكنولوجيا. في وقت سابق من هذا العام.
سيتم منح النقاط بتنسيق “Capture the Flag” لتشجيع المشاركين على اختبار مجموعة واسعة من الأخطاء أو السلوك غير المرغوب فيه من أنظمة الذكاء الاصطناعي. سيتم تنفيذ الحدث بالتشاور مع Microsoft ، ومنظمة SeedAI غير الربحية ، وقاعدة بيانات ثغرات الذكاء الاصطناعي ، و Humane Intelligence ، وهي منظمة غير ربحية أنشأها عالم البيانات والاجتماع رومان شودري. قادت سابقًا مجموعة في Twitter تعمل على الأخلاق والتعلم الآلي ، واستضافت مكافأة التحيز التي كشفت عن التحيز في الاقتصاص التلقائي للصور على الشبكة الاجتماعية.