ولكن الأمر لا يقتصر على عدم قدرة النماذج على التعرف على اللهجات أو اللغات أو قواعد اللغة أو الوجوه، وهو أمر أقل شيوعًا في الدول الغربية. يقول جريجوري: “تم تدريب الكثير من أدوات الكشف عن التزييف العميق الأولية على وسائط عالية الجودة”. ولكن في كثير من أنحاء العالم، بما في ذلك أفريقيا، تهيمن العلامات التجارية الصينية الرخيصة للهواتف الذكية التي تقدم ميزات مبسطة على السوق. ويقول نجاميتا إن الصور ومقاطع الفيديو التي تستطيع هذه الهواتف إنتاجها ذات جودة أقل بكثير، مما يزيد من إرباك نماذج الكشف.
يقول جريجوري إن بعض النماذج حساسة للغاية لدرجة أن حتى الضوضاء الخلفية في مقطع صوتي، أو ضغط مقطع فيديو لوسائل التواصل الاجتماعي، يمكن أن يؤدي إلى نتائج إيجابية أو سلبية كاذبة. “لكن هذه هي بالضبط الظروف التي تواجهها في العالم الحقيقي، الكشف عن الأخطاء بشكل تقريبي”، كما يقول. إن الأدوات المجانية التي تواجه الجمهور والتي من المرجح أن يتمكن معظم الصحفيين ومدققي الحقائق وأعضاء المجتمع المدني من الوصول إليها هي أيضًا “أدوات غير دقيقة للغاية، من حيث التعامل مع عدم المساواة في من يتم تمثيلهم في بيانات التدريب والتحديات المتمثلة في التعامل مع هذه المواد ذات الجودة المنخفضة”.
الذكاء الاصطناعي التوليدي ليس الطريقة الوحيدة لإنشاء وسائط إعلامية مُتلاعب بها. إن ما يسمى بالتزوير الرخيص، أو الوسائط الإعلامية المُتلاعب بها بإضافة تسميات مضللة أو ببساطة إبطاء أو تحرير الصوت والفيديو، شائعة جدًا أيضًا في الجنوب العالمي، ولكن يمكن تصنيفها عن طريق الخطأ على أنها مُتلاعب بها بواسطة الذكاء الاصطناعي من قبل نماذج معيبة أو باحثين غير مدربين.
وتخشى ديا أن يكون للمجموعات التي تستخدم أدوات من المرجح أن تشير إلى المحتوى من خارج الولايات المتحدة وأوروبا باعتباره من إنتاج الذكاء الاصطناعي عواقب وخيمة على مستوى السياسات، مما يشجع المشرعين على اتخاذ إجراءات صارمة ضد المشاكل الوهمية. وتقول: “هناك خطر كبير من حيث تضخيم مثل هذه الأرقام”. وتطوير أدوات جديدة ليس بالأمر السهل.
وكما هي الحال مع أي شكل آخر من أشكال الذكاء الاصطناعي، فإن بناء نموذج الكشف واختباره وتشغيله يتطلب الوصول إلى مراكز الطاقة والبيانات التي لا تتوفر ببساطة في معظم أنحاء العالم. ويقول نجاميتا، الذي يعمل في غانا: “إذا تحدثنا عن الذكاء الاصطناعي والحلول المحلية هنا، فمن المستحيل تقريبًا بدون الجانب الحاسوبي للأمور أن ندير أيًا من نماذجنا التي نفكر في ابتكارها”. وبدون البدائل المحلية، لا يتبقى للباحثين مثل نجاميتا سوى خيارات قليلة: الدفع مقابل الوصول إلى أداة جاهزة مثل تلك التي تقدمها شركة Reality Defender، والتي قد تكون تكاليفها باهظة؛ أو استخدام أدوات مجانية غير دقيقة؛ أو محاولة الوصول من خلال مؤسسة أكاديمية.
في الوقت الحالي، يقول نجاميتا إن فريقه اضطر إلى الشراكة مع جامعة أوروبية حيث يمكنهم إرسال قطع من المحتوى للتحقق منها. وقد قام فريق نجاميتا بتجميع مجموعة بيانات من حالات التزييف العميق المحتملة من جميع أنحاء القارة، والتي يقول إنها قيمة للأكاديميين والباحثين الذين يحاولون تنويع مجموعات بيانات نماذجهم.
ولكن إرسال البيانات إلى شخص آخر له أيضًا عيوبه. يقول ديا: “إن وقت التأخير كبير جدًا. يستغرق الأمر بضعة أسابيع على الأقل حتى يتمكن شخص ما من القول بثقة أن هذا تم إنشاؤه بواسطة الذكاء الاصطناعي، وبحلول ذلك الوقت، يكون الضرر قد حدث بالفعل”.
يقول جريجوري إن منظمة ويتنس، التي تدير برنامجها الخاص للكشف عن الاستجابة السريعة، تتلقى “عددًا هائلاً” من الحالات. ويضيف: “من الصعب بالفعل التعامل مع هذه الحالات في الإطار الزمني الذي يحتاجه الصحفيون في الخطوط الأمامية، وبالحجم الذي بدأوا يواجهونه”.
ولكن ديا تقول إن التركيز بشكل كبير على الكشف قد يحول التمويل والدعم بعيدًا عن المنظمات والمؤسسات التي تعمل على توفير نظام معلومات أكثر مرونة بشكل عام. وتقول إنه بدلاً من ذلك، يجب توجيه التمويل نحو منافذ الأخبار ومنظمات المجتمع المدني التي يمكنها توليد شعور بالثقة العامة. وتقول: “لا أعتقد أن هذا هو المكان الذي تذهب إليه الأموال. أعتقد أنها تذهب أكثر إلى الكشف”.