واشنطن (أ ف ب) – من بين صور المنازل التي قصفت وشوارع غزة المدمرة، برزت بعض الصور بسبب الرعب المطلق: أطفال رضع مهجورون وملطخون بالدماء.
تمت مشاهدة هذه الصور ملايين المرات عبر الإنترنت منذ بداية الحرب، وهي عبارة عن صور مزيفة عميقة تم إنشاؤها باستخدام الذكاء الاصطناعي. إذا نظرت عن كثب، يمكنك رؤية الأدلة: أصابع تتجعد بشكل غريب، أو عيون تتلألأ بضوء غير طبيعي – كل العلامات الدالة على الخداع الرقمي.
ومع ذلك، فإن الغضب الذي تم إنشاء الصور لإثارةه، هو حقيقي للغاية.
لقد أظهرت صور الحرب بين إسرائيل وحماس بشكل واضح ومؤلم إمكانات الذكاء الاصطناعي كأداة دعائية تستخدم لخلق صور واقعية للمذبحة. منذ أن بدأت الحرب الشهر الماضي، تم استخدام الصور المعدلة رقميًا والمنتشرة على وسائل التواصل الاجتماعي لتقديم ادعاءات كاذبة حول المسؤولية عن الضحايا أو لخداع الناس بشأن فظائع لم تحدث أبدًا.
في حين أن معظم الادعاءات الكاذبة المتداولة عبر الإنترنت حول الحرب لم تتطلب إنشاء الذكاء الاصطناعي وجاءت من مصادر أكثر تقليدية، فإن التقدم التكنولوجي يأتي بوتيرة متزايدة وقليل من الرقابة. وهذا ما جعل إمكانية أن يصبح الذكاء الاصطناعي شكلاً آخر من أشكال الأسلحة واضحًا بشكل صارخ، وقدم لمحة عما سيحدث خلال الصراعات المستقبلية والانتخابات وغيرها من الأحداث الكبرى.
قال جان كلود جولدنستين، الرئيس التنفيذي لشركة CREOpoint، وهي شركة تكنولوجيا مقرها في سان فرانسيسكو وباريس تستخدم الذكاء الاصطناعي لتقييم صحة المطالبات عبر الإنترنت: “سوف يصبح الأمر أسوأ – أسوأ بكثير – قبل أن يتحسن”. أنشأت الشركة قاعدة بيانات تضم أكثر مقاطع التزييف العميق انتشارًا والتي ظهرت من غزة. “بالصور والفيديو والصوت: مع الذكاء الاصطناعي التوليدي، سيكون هناك تصعيد لم يسبق له مثيل.”
في بعض الحالات، تم إعادة استخدام صور من صراعات أو كوارث أخرى وتمريرها على أنها جديدة. وفي حالات أخرى، تم استخدام برامج الذكاء الاصطناعي التوليدية لإنشاء صور من الصفر، مثل صورة طفل يبكي وسط حطام القصف الذي انتشر على نطاق واسع في الأيام الأولى للصراع.
تشمل الأمثلة الأخرى للصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي مقاطع فيديو تظهر ضربات صاروخية إسرائيلية مفترضة، أو دبابات تتدحرج عبر الأحياء المدمرة، أو عائلات تمشط الأنقاض بحثًا عن ناجين.
في كثير من الحالات، يبدو أن المنتجات المزيفة مصممة لإثارة رد فعل عاطفي قوي من خلال تضمين أجساد الأطفال أو الأطفال أو العائلات. في الأيام الأولى الدامية من الحرب، زعم أنصار كل من إسرائيل وحماس أن الجانب الآخر قد وقع ضحية للأطفال والرضع؛ قدمت الصور المزيفة لأطفال يبكون “أدلة” فوتوغرافية تم اعتمادها بسرعة كدليل.
وقال عمران أحمد، الرئيس التنفيذي لمركز مكافحة الكراهية الرقمية، وهي منظمة غير ربحية تتعقب المعلومات المضللة من الحرب، إن الدعاة الذين يصنعون مثل هذه الصور ماهرون في استهداف أعمق دوافع الناس ومخاوفهم. سواء أكان ذلك طفلًا مزيفًا، أو صورة حقيقية لرضيع من صراع آخر، فإن التأثير العاطفي على المشاهد هو نفسه.
كلما كانت الصورة بغيضة، زاد احتمال أن يتذكرها المستخدم ويشاركها، مما يؤدي إلى نشر المعلومات المضللة بشكل أكبر عن غير قصد.
قال أحمد: “يُقال للناس الآن: انظروا إلى صورة الطفل هذه”. “تم تصميم المعلومات المضللة لجعلك تتعامل معها.”
وبالمثل، بدأ المحتوى المخادع الذي أنشأه الذكاء الاصطناعي في الانتشار بعد غزو روسيا لأوكرانيا في عام 2022. ويبدو أن أحد مقاطع الفيديو المعدلة يُظهر الرئيس الأوكراني فولوديمير زيلينسكي وهو يأمر الأوكرانيين بالاستسلام. استمرت مثل هذه الادعاءات في الانتشار حتى الأسبوع الماضي، مما يوضح مدى استمرارية المعلومات الخاطئة التي يمكن فضحها بسهولة.
يوفر كل صراع جديد، أو موسم انتخابات، فرصًا جديدة لبائعي المعلومات المضللة لإظهار أحدث التطورات في الذكاء الاصطناعي. وقد دفع ذلك العديد من خبراء الذكاء الاصطناعي وعلماء السياسة إلى التحذير من المخاطر في العام المقبل، عندما تعقد عدة دول انتخابات كبرى، بما في ذلك الولايات المتحدة والهند وباكستان وأوكرانيا وتايوان وإندونيسيا والمكسيك.
أثار خطر استخدام الذكاء الاصطناعي ووسائل التواصل الاجتماعي لنشر الأكاذيب بين الناخبين الأمريكيين قلق المشرعين من كلا الحزبين في واشنطن. وفي جلسة استماع عقدت مؤخرًا حول مخاطر تكنولوجيا التزييف العميق، قال النائب الأمريكي جيري كونولي، الديمقراطي من ولاية فرجينيا، إنه يجب على الولايات المتحدة الاستثمار في تمويل تطوير أدوات الذكاء الاصطناعي المصممة لمواجهة الذكاء الاصطناعي الآخر.
قال كونولي: “نحن كأمة بحاجة إلى تصحيح هذا الأمر”.
يعمل عدد من شركات التكنولوجيا الناشئة في جميع أنحاء العالم على برامج جديدة يمكنها اكتشاف التزييف العميق، أو وضع علامات مائية على الصور لإثبات أصلها، أو مسح النص للتحقق من أي ادعاءات خادعة ربما تم إدراجها بواسطة الذكاء الاصطناعي.
“ستكون الموجة التالية من الذكاء الاصطناعي هي: كيف يمكننا التحقق من المحتوى الموجود هناك. كيف يمكنك اكتشاف المعلومات الخاطئة، وكيف يمكنك تحليل النص لتحديد ما إذا كان جديرًا بالثقة؟ قالت ماريا أميلي، المؤسس المشارك لشركة Factiverse، وهي شركة نرويجية أنشأت برنامج ذكاء اصطناعي يمكنه فحص المحتوى بحثًا عن عدم الدقة أو التحيز الذي تقدمه برامج الذكاء الاصطناعي الأخرى.
ستكون مثل هذه البرامج ذات أهمية فورية للمعلمين والصحفيين والمحللين الماليين وغيرهم من المهتمين باجتثاث الأكاذيب أو الانتحال أو الاحتيال. ويتم تصميم برامج مماثلة للتعرف على الصور أو مقاطع الفيديو التي تم التلاعب بها.
في حين أن هذه التكنولوجيا تبدو واعدة، فإن أولئك الذين يستخدمون الذكاء الاصطناعي للكذب غالبا ما يكونون خطوة إلى الأمام، وفقا لديفيد دورمان، عالم الكمبيوتر الذي قاد جهدا في وكالة مشاريع البحوث الدفاعية المتقدمة للرد على تهديدات الأمن القومي التي تشكلها الصور التي تم التلاعب بها بواسطة الذكاء الاصطناعي.
وقال دويرمان، الذي يعمل الآن أستاذا في جامعة بوفالو، إن الاستجابة الفعالة للتحديات السياسية والاجتماعية التي تفرضها المعلومات المضللة القائمة على الذكاء الاصطناعي ستتطلب تكنولوجيا أفضل ولوائح أفضل، ومعايير صناعية طوعية واستثمارات واسعة النطاق في برامج محو الأمية الرقمية لمساعدة مستخدمي الإنترنت على فهم طرق لمعرفة الحقيقة من الخيال.
وقال دورمان: “في كل مرة نطلق فيها أداة تكتشف ذلك، يمكن لخصومنا استخدام الذكاء الاصطناعي لإخفاء تلك الأدلة”. “إن الكشف عن هذه الأشياء ومحاولة سحبها لم يعد هو الحل. نحن بحاجة إلى حل أكبر بكثير”.