ابق على اطلاع بالتحديثات المجانية
ببساطة قم بالتسجيل في الذكاء الاصطناعي myFT Digest – يتم تسليمه مباشرة إلى صندوق الوارد الخاص بك.
كشفت شركة OpenAI أن العمليات المرتبطة بروسيا والصين وإيران وإسرائيل تستخدم أدوات الذكاء الاصطناعي الخاصة بها لإنشاء معلومات مضللة ونشرها، حيث أصبحت التكنولوجيا سلاحًا قويًا في حرب المعلومات في عام مزدحم بالانتخابات.
قالت الشركة المصنعة لبرنامج ChatGPT ومقرها سان فرانسيسكو في تقرير يوم الخميس إن خمس عمليات تأثير سرية استخدمت نماذج الذكاء الاصطناعي الخاصة بها لإنشاء نصوص وصور بكميات كبيرة، مع أخطاء لغوية أقل من السابق، بالإضافة إلى إنشاء تعليقات أو الردود على مشاركاتهم الخاصة. تحظر سياسات OpenAI استخدام نماذجها لخداع الآخرين أو تضليلهم.
وقالت OpenAI في التقرير إن المحتوى ركز على قضايا “بما في ذلك الغزو الروسي لأوكرانيا، والصراع في غزة، والانتخابات الهندية، والسياسة في أوروبا والولايات المتحدة، وانتقادات المنشقين الصينيين والحكومات الأجنبية للحكومة الصينية”.
وأضافت أن الشبكات استخدمت أيضًا الذكاء الاصطناعي لتعزيز إنتاجيتها، وتطبيقه على مهام مثل تصحيح الأخطاء البرمجية أو إجراء بحث في نشاط وسائل التواصل الاجتماعي العامة.
وسعت منصات وسائل التواصل الاجتماعي، بما في ذلك ميتا ويوتيوب التابعة لشركة جوجل، إلى تضييق الخناق على انتشار حملات التضليل في أعقاب فوز دونالد ترامب عام 2016 في الانتخابات الرئاسية الأمريكية عندما وجد المحققون أدلة على أن مزرعة متصيدين روسية سعت إلى التلاعب في التصويت.
يتزايد الضغط على شركات الذكاء الاصطناعي سريعة النمو مثل OpenAI، حيث أن التقدم السريع في التكنولوجيا الخاصة بها يعني أنه أصبح أرخص وأسهل من أي وقت مضى لمرتكبي التضليل إنشاء صور مزيفة واقعية والتلاعب بالوسائط ثم نشر هذا المحتوى بطريقة آلية.
مع توجه نحو ملياري شخص إلى صناديق الاقتراع هذا العام، حث صناع السياسات الشركات على تقديم وتنفيذ حواجز حماية مناسبة.
قال بن نيمو، المحقق الرئيسي للاستخبارات والتحقيقات في OpenAI، في مكالمة مع المراسلين إن الحملات لا يبدو أنها عززت مشاركتها أو وصولها “بشكل هادف” نتيجة لاستخدام نماذج OpenAI.
لكنه أضاف: “هذا ليس الوقت المناسب للرضا عن النفس. يظهر التاريخ أن عمليات التأثير التي قضت سنوات من الفشل في الوصول إلى أي مكان يمكن أن تندلع فجأة إذا لم يبحث عنها أحد.
وقالت شركة OpenAI المدعومة من مايكروسوفت إنها ملتزمة بالكشف عن حملات التضليل هذه وتقوم ببناء أدواتها الخاصة التي تعمل بالذكاء الاصطناعي لجعل الكشف والتحليل “أكثر فعالية”. وأضافت أن أنظمة السلامة الخاصة بها جعلت من الصعب بالفعل على الجناة العمل، حيث رفضت نماذجها في عدة حالات إنشاء النص أو الصور المطلوبة.
في التقرير، كشفت OpenAI أن العديد من الجهات الفاعلة المعروفة في مجال التضليل التابعة للدولة كانت تستخدم أدواتها. وشملت هذه العملية الروسية، Doppelganger، التي تم اكتشافها لأول مرة في عام 2022 وتحاول عادة تقويض الدعم لأوكرانيا، وشبكة صينية تعرف باسم Spamouflage، والتي تدفع مصالح بكين في الخارج. استخدمت كلتا الحملتين نماذجها لإنشاء نص أو تعليق بلغات متعددة قبل النشر على منصات مثل Elon Musk's X.
وقد أشارت إلى عملية روسية لم يتم الإبلاغ عنها سابقًا، أطلق عليها اسم Bad Grammar، قائلة إنها استخدمت نماذج OpenAI لتصحيح أخطاء التعليمات البرمجية لتشغيل روبوت Telegram وإنشاء تعليقات سياسية قصيرة باللغتين الروسية والإنجليزية تم نشرها بعد ذلك على منصة المراسلة Telegram.
تم التواصل مع X وTelegram للتعليق.
وقالت أيضًا إنها أحبطت جهودًا مؤيدة لإسرائيل للتضليل مقابل أجر، يُزعم أنها تديرها شركة لإدارة الحملات السياسية مقرها تل أبيب تسمى STOIC، والتي استخدمت نماذجها لإنشاء مقالات وتعليقات على X وعبر Instagram وFacebook التابعين لـ Meta.
أصدرت Meta يوم الأربعاء تقريرًا يفيد بأنها أزالت محتوى STOIC. تم إنهاء الحسابات المرتبطة بهذه العمليات بواسطة OpenAI.
تقارير إضافية من كريستينا كريدل