يكفي أن نقول إن هذا الجبل من الأدلة من المصادر المباشرة له وزن أثقل من الصور المميزة من المعلقين المحافظين مثل تشاك كاليستو و دينيش ديسوزا، وكلاهما تم القبض عليهما بتهمة نشر معلومات مضللة تتعلق بالانتخابات في الماضي.
عندما يتعلق الأمر باتهامات التزوير التي تروج لها الذكاء الاصطناعي، فكلما تنوعت مصادر المعلومات التي تمتلكها، كان ذلك أفضل. ففي حين يمكن لمصدر واحد أن ينتج بسهولة صورة معقولة لحدث ما، فإن المصادر المستقلة المتعددة التي تعرض نفس الحدث من زوايا متعددة أقل احتمالية بكثير لأن تكون متورطة في نفس الخدعة. كما أن الصور التي تتوافق مع أدلة الفيديو أفضل، خاصة وأن إنشاء مقاطع فيديو مقنعة طويلة الأمد لأشخاص أو مشاهد معقدة لا يزال يشكل تحديًا للعديد من أدوات الذكاء الاصطناعي.
من المهم أيضًا تعقب المصدر الأصلي لأي صورة مزعومة تم إنشاؤها بواسطة الذكاء الاصطناعي والتي تبحث عنها. من السهل للغاية على مستخدم وسائل التواصل الاجتماعي إنشاء صورة تم إنشاؤها بواسطة الذكاء الاصطناعي، والادعاء بأنها جاءت من تقرير إخباري أو لقطات حية لحدث ما، ثم استخدام عيوب واضحة في تلك الصورة المزيفة كـ “دليل” على أن الحدث نفسه مزيف. تعد الروابط إلى الصور الأصلية من موقع الويب الخاص بالمصدر الأصلي أو الحساب الذي تم التحقق منه أكثر موثوقية بكثير من لقطات الشاشة التي قد تكون نشأت في أي مكان (و/أو تم تعديلها من قبل أي شخص).
علامات دالة
في حين أن تعقب المصادر الأصلية و/أو المؤكدة مفيد لحدث إخباري كبير مثل تجمع رئاسي، فإن تأكيد صحة الصور ومقاطع الفيديو ذات المصدر الواحد قد يكون أكثر صعوبة. تزعم أدوات مثل Winston AI Image Detector أو IsItAI.com أنها تستخدم نماذج التعلم الآلي لمعرفة ما إذا كانت الصورة من صنع الذكاء الاصطناعي أم لا. ولكن في حين تستمر تقنيات الكشف في التطور، فإن هذه الأنواع من الأدوات تستند عمومًا إلى نظريات غير مثبتة لم يثبت أنها موثوقة في أي دراسات واسعة النطاق، مما يجعل احتمال ظهور نتائج إيجابية/سلبية كاذبة خطرًا حقيقيًا.
وفي مقال كتبه على موقع لينكدإن، استشهد هاني فريد، أستاذ جامعة كاليفورنيا في بيركلي، بنموذجين من مختبرات GetReal Labs يظهران “عدم وجود دليل على توليد الذكاء الاصطناعي” في صور تجمع هاريس التي نشرها ترامب. ثم استشهد فريد بأجزاء محددة من الصورة تشير إلى صحتها.
“يكتب فريد: “لا يظهر النص الموجود على اللافتات والطائرة أيًا من العلامات المعتادة للذكاء الاصطناعي التوليدي. وفي حين أن عدم وجود دليل على التلاعب لا يعد دليلاً على أن الصورة حقيقية. لم نجد أي دليل على أن هذه الصورة تم إنشاؤها بواسطة الذكاء الاصطناعي أو تم تعديلها رقميًا”.
وحتى عندما تبدو أجزاء من الصورة وكأنها علامات غير منطقية على تلاعب الذكاء الاصطناعي (على غرار الأيدي المشوهة في بعض نماذج صور الذكاء الاصطناعي)، ضع في اعتبارك أنه قد يكون هناك تفسير بسيط لبعض الأوهام البصرية الظاهرية. تشير هيئة الإذاعة البريطانية إلى أن عدم وجود انعكاس للحشد على الطائرة في بعض صور رالي هاريس قد يكون ناتجًا عن مساحة كبيرة فارغة من المدرج بين الطائرة والحشد، كما هو موضح في زوايا عكسية للمشهد. إن مجرد وضع دائرة حول أشياء غريبة المظهر في صورة بعلامة حمراء ليس بالضرورة دليلاً قويًا على تلاعب الذكاء الاصطناعي في حد ذاته.