يأتي إعلان ريموندو في نفس اليوم جوجل توصف إصدار بيانات جديدة تسلط الضوء على براعة أحدث نموذج للذكاء الاصطناعي، Gemini، مما يوضح أنه يتفوق على OpenAI’s GPT-4، الذي يشغل ChatGPT، في بعض معايير الصناعة. وقد تحصل وزارة التجارة الأمريكية على إنذار مبكر بشأن خليفة مشروع جيميني، إذا كان المشروع يستخدم ما يكفي من موارد الحوسبة السحابية الوافرة من جوجل.
دفع التقدم السريع في مجال الذكاء الاصطناعي العام الماضي بعض خبراء الذكاء الاصطناعي والمديرين التنفيذيين إلى الدعوة إلى وقف مؤقت لتطوير أي شيء أقوى من GPT-4، النموذج المستخدم حاليًا لـ ChatGPT.
يقول صامويل هاموند، كبير الاقتصاديين في مؤسسة الابتكار الأمريكي، وهي مؤسسة فكرية، إن التحدي الرئيسي الذي تواجهه حكومة الولايات المتحدة هو أن النموذج لا يحتاج بالضرورة إلى تجاوز عتبة الحساب في التدريب ليكون خطيرًا.
يقول دان هندريكس، مدير مركز سلامة الذكاء الاصطناعي، وهو منظمة غير ربحية، إن هذا المتطلب متناسب نظرًا للتطورات الأخيرة في الذكاء الاصطناعي، والمخاوف بشأن قوته. ويقول: “تنفق الشركات عدة مليارات من الدولارات على التدريب على الذكاء الاصطناعي، ويحذر مديروها التنفيذيون من أن الذكاء الاصطناعي قد يصبح فائق الذكاء في العامين المقبلين”. “يبدو من المعقول أن تكون الحكومة على دراية بما تنوي شركات الذكاء الاصطناعي فعله.”
يوافق أنتوني أغيري، المدير التنفيذي لمعهد مستقبل الحياة، وهي منظمة غير ربحية مكرسة لضمان استفادة البشرية من التقنيات التحويلية. ويقول: “حتى الآن، تُجرى تجارب عملاقة دون أي إشراف أو تنظيم خارجي”. “يعد الإبلاغ عن عمليات التدريب على الذكاء الاصطناعي وتدابير السلامة ذات الصلة خطوة مهمة. ولكن هناك حاجة إلى المزيد. هناك اتفاق قوي بين الحزبين حول الحاجة إلى تنظيم الذكاء الاصطناعي، ونأمل أن يتمكن الكونجرس من اتخاذ إجراء بشأن هذا الأمر قريبًا.
وقال ريموندو في حدث معهد هوفر يوم الجمعة، إن المعاهد الوطنية للمعايير والتكنولوجيا (NIST)، تعمل حاليًا على تحديد معايير لاختبار سلامة نماذج الذكاء الاصطناعي، كجزء من إنشاء معهد جديد لسلامة الذكاء الاصطناعي التابع للحكومة الأمريكية. عادةً ما يتضمن تحديد مدى خطورة نموذج الذكاء الاصطناعي اختبار النموذج لمحاولة إثارة سلوك أو مخرجات إشكالية، وهي عملية تُعرف باسم “الفريق الأحمر”.
وقالت ريموندو إن إدارتها تعمل على وضع مبادئ توجيهية من شأنها أن تساعد الشركات على فهم أفضل للمخاطر التي قد تكمن في النماذج التي تخطط لها. واقترحت أن تتضمن هذه المبادئ التوجيهية طرقًا لضمان عدم استخدام الذكاء الاصطناعي لارتكاب انتهاكات لحقوق الإنسان.
يمنح الأمر التنفيذي الصادر في أكتوبر بشأن الذكاء الاصطناعي NIST مهلة حتى 26 يوليو لوضع هذه المعايير موضع التنفيذ، لكن بعض العاملين مع الوكالة يقولون إنها تفتقر إلى الأموال أو الخبرة اللازمة لإنجاز ذلك بشكل مناسب.