هل سمعتي حول الطائرة بدون طيار التابعة لسلاح الجو والتي أصبحت مارقة وهاجمت مشغليها داخل محاكاة؟
روى الكولونيل تاكر هاميلتون ، رئيس اختبارات وعمليات الذكاء الاصطناعي في سلاح الجو الأمريكي ، الحكاية التحذيرية ، خلال خطاب ألقاه في حدث دفاعي ودفاعي في لندن أواخر الشهر الماضي. يبدو أنها تضمنت أخذ نوع من خوارزمية التعلم التي تم استخدامها لتدريب أجهزة الكمبيوتر على لعب ألعاب الفيديو وألعاب الطاولة مثل Chess and Go واستخدامها لتدريب طائرة بدون طيار على اصطياد وتدمير صواريخ أرض جو.
“في بعض الأحيان ، كان العامل البشري يخبرها بألا تقتل هذا التهديد ، لكنها حصلت على وجهة نظرها بقتل هذا التهديد” ، كما ورد على نطاق واسع أن هاميلتون أخبر الجمهور في لندن. “إذن ماذا فعلت؟ (…) قتل العامل لأن هذا الشخص كان يمنعه من تحقيق هدفه “.
المقدسة T-800! يبدو الأمر وكأنه مجرد نوع من الأشياء التي بدأها خبراء الذكاء الاصطناعي في التحذير من أن الخوارزميات الذكية والمستقلة بشكل متزايد قد تفعلها. سرعان ما انتشرت الحكاية بسرعة ، مع انتقاء العديد من المواقع الإخبارية البارزة لها ، وسرعان ما انتشر موقع تويتر. يأخذ الساخنة المعنية.
هناك صيد واحد – التجربة لم تحدث قط.
طمأنتنا المتحدثة باسم القوات الجوية آن ستيفانيك في بيان: “لم تقم وزارة القوات الجوية بإجراء أي محاكاة من هذا القبيل للطائرات بدون طيار وتظل ملتزمة بالاستخدام الأخلاقي والمسؤول لتكنولوجيا الذكاء الاصطناعي”. “كانت هذه تجربة فكرية افتراضية ، وليست محاكاة.”
هاملتون نفسه سارع أيضًا إلى تصحيح الأمور ، قائلاً إنه “أخطأ في الكلام” أثناء حديثه.
لكي نكون منصفين ، تقوم الجيوش أحيانًا بإجراء تمارين “لعبة حرب” على الطاولة تعرض سيناريوهات وتقنيات افتراضية غير موجودة حتى الآن.
قد تكون “تجربة التفكير” لهاملتون قد تم استنباطها أيضًا من خلال بحث حقيقي للذكاء الاصطناعي يُظهر مشكلات مشابهة لتلك التي يصفها.
أوبن إيه آي ، الشركة التي تقف وراء ChatGPT – روبوت المحادثة الذكي والمثير للإحباط في قلب طفرة الذكاء الاصطناعي اليوم – أجرت تجربة في عام 2016 أظهرت كيف أن خوارزميات الذكاء الاصطناعي التي تم إعطاؤها هدفًا معينًا يمكن أن تسيء التصرف أحيانًا. اكتشف باحثو الشركة أن أحد وكلاء الذكاء الاصطناعي الذي تم تدريبه على زيادة نتيجته في لعبة فيديو تتضمن قيادة قارب حوله بدأ في تحطيم القارب بأشياء لأنه تبين أنه وسيلة للحصول على المزيد من النقاط.
لكن من المهم ملاحظة أن هذا النوع من الأعطال – رغم أنه ممكن نظريًا – لا يجب أن يحدث ما لم يتم تصميم النظام بشكل غير صحيح.
يوضح ويل روبر ، وهو مساعد سابق لوزير الاستحواذ في سلاح الجو الأمريكي وقاد مشروعًا لوضع خوارزمية تعزيز مسؤولة عن بعض الوظائف في طائرة تجسس U2 ، أن خوارزمية الذكاء الاصطناعي لن يكون لديها ببساطة خيار مهاجمة طائراتها. عوامل داخل محاكاة. قد يكون ذلك بمثابة خوارزمية للعب الشطرنج قادرة على قلب اللوحة لتجنب فقدان المزيد من القطع ، كما يقول.
إذا انتهى الأمر باستخدام الذكاء الاصطناعي في ساحة المعركة ، “فسيبدأ ببنية برمجية لأمن البرمجيات تستخدم تقنيات مثل الحاوية لإنشاء” مناطق آمنة “للذكاء الاصطناعي والمناطق المحظورة حيث يمكننا إثبات أن الذكاء الاصطناعي لا يمكنه العمل ،” يقول روبر.
هذا يعيدنا إلى لحظة القلق الوجودي الحالية حول الذكاء الاصطناعي. أدت السرعة التي تتحسن بها النماذج اللغوية مثل النموذج وراء ChatGPT إلى إثارة قلق بعض الخبراء ، بما في ذلك العديد من أولئك الذين يعملون على التكنولوجيا ، مما أدى إلى دعوات للتوقف مؤقتًا في تطوير خوارزميات أكثر تقدمًا وتحذيرات بشأن تهديد للبشرية على قدم المساواة مع الطاقة النووية. الأسلحة والأوبئة.
من الواضح أن هذه التحذيرات لا تساعد عندما يتعلق الأمر بتحليل القصص الجامحة حول تحول خوارزميات الذكاء الاصطناعي ضد البشر. والارتباك هو بالكاد ما نحتاجه عندما تكون هناك مشكلات حقيقية يجب معالجتها ، بما في ذلك الطرق التي يمكن أن يؤدي بها الذكاء الاصطناعي التوليدي إلى تفاقم التحيزات المجتمعية ونشر المعلومات المضللة.
لكن هذه المذكرة حول إساءة التصرف في الذكاء الاصطناعي العسكري تخبرنا أننا بحاجة ماسة إلى مزيد من الشفافية حول طريقة عمل الخوارزميات المتطورة ، والمزيد من الأبحاث والهندسة التي تركز على كيفية بنائها ونشرها بأمان ، وطرق أفضل لمساعدة الجمهور على فهم ما يتم نشره. قد تثبت أهمية هذه الجيوش – مثل أي شخص آخر – للاستفادة من التطورات الأخيرة.