احصل على ملخص المحرر مجانًا
تختار رولا خلف، رئيسة تحرير صحيفة الفاينانشال تايمز، قصصها المفضلة في هذه النشرة الأسبوعية.
أصبحت أحدث نماذج الذكاء الاصطناعي التي طورتها شركة OpenAI معرضة لخطر متزايد من إساءة استخدامها لإنشاء أسلحة بيولوجية، حيث يدق باحثو السلامة ناقوس الخطر بشأن المخاطر المحتملة لهذه التكنولوجيا سريعة التقدم.
أعلنت الشركة التي يقع مقرها في سان فرانسيسكو عن نماذجها الجديدة، المعروفة باسم o1، يوم الخميس، حيث روجت لقدراتها الجديدة على التفكير وحل المشكلات الرياضية الصعبة والإجابة على أسئلة البحث العلمي. تُرى هذه القدرات على أنها تقدم كبير في الجهود المبذولة لإنشاء ذكاء عام اصطناعي – آلات ذات إدراك على مستوى الإنسان.
وقالت بطاقة نظام OpenAI، وهي أداة لشرح كيفية عمل الذكاء الاصطناعي، إن النماذج الجديدة تنطوي على “مخاطر متوسطة” فيما يتعلق بالقضايا المتعلقة بالأسلحة الكيميائية والبيولوجية والإشعاعية والنووية (CBRN).
إن تسمية “المتوسط”، وهي أعلى تسمية تمنحها OpenAI على الإطلاق لنماذجها، تعني أن التكنولوجيا “قد حسنت بشكل ملموس المساعدة التي تزيد من قدرة الخبراء الحاليين في المجالات المتقدمة المتعلقة بالأسلحة الكيميائية والبيولوجية والنووية والإشعاعية على خلق تهديد معروف للأسلحة الكيميائية والبيولوجية والنووية والإشعاعية (على سبيل المثال، المعرفة الضمنية، معلومات محددة عن المورد، خطط التوزيع)”، وفقًا لسياساتها.
قال خبراء إن برمجيات الذكاء الاصطناعي ذات القدرات الأكثر تقدماً، مثل القدرة على إجراء التفكير خطوة بخطوة، تشكل خطراً متزايداً من إساءة استخدامها في أيدي الجهات السيئة.
وتأتي هذه التحذيرات في الوقت الذي تتسابق فيه شركات التكنولوجيا، بما في ذلك جوجل وميتا وأنثروبيك، لبناء وتحسين أنظمة الذكاء الاصطناعي المتطورة، حيث تسعى إلى إنشاء برامج يمكن أن تعمل كـ “وكلاء” لمساعدة البشر في إكمال المهام والتنقل في حياتهم.
ويُنظر إلى وكلاء الذكاء الاصطناعي أيضًا على أنهم مصدر محتمل للأموال للشركات التي تكافح حتى الآن مع التكاليف الضخمة المطلوبة لتدريب وتشغيل نماذج جديدة.
وقد أدى ذلك إلى بذل جهود لتنظيم شركات الذكاء الاصطناعي بشكل أفضل. ففي كاليفورنيا، يطالب مشروع قانون مثير للجدل ــ يسمى مشروع قانون مجلس الشيوخ رقم 1047 ــ صناع النماذج الأكثر تكلفة باتخاذ خطوات لتقليل مخاطر استخدام نماذجهم لتطوير الأسلحة البيولوجية.
حذر بعض المستثمرين المغامرين ومجموعات التكنولوجيا، بما في ذلك OpenAI، من أن القانون المقترح قد يكون له تأثير مخيف على صناعة الذكاء الاصطناعي. يجب على حاكم ولاية كاليفورنيا جافين نيوسوم أن يقرر خلال الأيام المقبلة ما إذا كان سيوقع على القانون أو يعترض عليه.
وقال يوشوا بينجيو، أستاذ علوم الكمبيوتر في جامعة مونتريال وأحد أبرز علماء الذكاء الاصطناعي في العالم: “إذا تجاوزت OpenAI بالفعل مستوى “الخطر المتوسط” للأسلحة الكيميائية والبيولوجية والإشعاعية والنووية كما أفادت، فإن هذا يعزز فقط أهمية وإلحاح اعتماد تشريعات مثل SB 1047 من أجل حماية الجمهور”.
وقال إنه مع تقدم نماذج الذكاء الاصطناعي “الرائدة” نحو الذكاء الاصطناعي العام، فإن “المخاطر ستستمر في الارتفاع إذا كانت الحواجز الواقية المناسبة مفقودة. إن تحسين قدرة الذكاء الاصطناعي على التفكير واستخدام هذه المهارة للخداع أمر خطير بشكل خاص”.
وقالت ميرا موراتي، مديرة التكنولوجيا في OpenAI، لصحيفة فاينانشال تايمز إن الشركة كانت “حذرة” بشكل خاص في كيفية تقديم o1 للجمهور، نظرًا لقدراتها المتقدمة، على الرغم من أن المنتج سيكون متاحًا على نطاق واسع عبر المشتركين المدفوعين في ChatGPT وللمبرمجين عبر واجهة برمجة التطبيقات.
وأضافت أن النموذج تم اختباره من قبل ما يسمى بالفرق الحمراء – خبراء في مجالات علمية مختلفة حاولوا كسر النموذج – لدفع حدوده. وقالت موراتي إن النماذج الحالية حققت أداءً أفضل بكثير من حيث مقاييس السلامة الإجمالية مقارنة بالنماذج السابقة.
تقرير إضافي بقلم جورج هاموند في سان فرانسيسكو