“تم تصميم الإعلانات السياسية عمدًا لتشكيل مشاعرك والتأثير عليك. لذا، فإن ثقافة الإعلانات السياسية غالبًا ما تتمثل في القيام بأشياء توسع أبعاد الكيفية التي قال بها شخص ما شيئًا ما، أو تقطع الاقتباس الذي تم وضعه خارج السياق،” كما يقول جريجوري. “هذا في الأساس، في بعض النواحي، مثل تزييف رخيص أو تزييف سطحي.”
ولم تستجب ميتا لطلب التعليق حول كيفية قيامها بمراقبة المحتوى الذي تم التلاعب به والذي يقع خارج نطاق الإعلانات السياسية، أو كيف تخطط للكشف بشكل استباقي عن استخدام الذكاء الاصطناعي في الإعلانات السياسية.
لكن الشركات بدأت الآن فقط في معالجة كيفية التعامل مع المحتوى الناتج عن الذكاء الاصطناعي من المستخدمين العاديين. قدم YouTube مؤخرًا سياسة أكثر قوة تتطلب وضع علامات على مقاطع الفيديو التي ينشئها المستخدمون والتي تستخدم الذكاء الاصطناعي التوليدي. قال المتحدث باسم جوجل، مايكل أسيمان، لـ WIRED أنه بالإضافة إلى إضافة “تصنيف إلى لوحة الوصف لمقطع فيديو يشير إلى أن بعض المحتوى تم تعديله أو تركيبه”، ستدرج الشركة “تصنيفًا أكثر بروزًا” لـ “المحتوى المتعلق بالموضوعات الحساسة”. مثل الانتخابات.” وأشار أسيمان أيضًا إلى أنه لا يزال من الممكن إزالة “الصور المزيفة الرخيصة” وغيرها من الوسائط التي تم التلاعب بها إذا كانت تنتهك سياسات المنصة الأخرى المتعلقة، على سبيل المثال، بالمعلومات المضللة أو خطاب الكراهية.
وقال أسيمان لمجلة WIRED: “نحن نستخدم مجموعة من الأنظمة الآلية والمراجعين البشريين لتطبيق سياساتنا على نطاق واسع”. “يتضمن ذلك فريقًا متخصصًا مكونًا من ألف شخص يعملون على مدار الساعة وفي جميع أنحاء العالم لمراقبة شبكتنا الإعلانية والمساعدة في فرض سياساتنا.”
لكن المنصات الاجتماعية فشلت بالفعل في تعديل المحتوى بشكل فعال في العديد من البلدان التي ستستضيف الانتخابات الوطنية العام المقبل، كما يشير هاني فريد، الأستاذ في كلية الإعلام بجامعة كاليفورنيا في بيركلي. ويقول: “أود أن يشرحوا لي كيف سيعثرون على هذا المحتوى”. “إنه شيء واحد أن نقول إن لدينا سياسة ضد هذا، ولكن كيف ستطبقونها؟ لأنه لا يوجد دليل على مدى السنوات العشرين الماضية على أن هذه المنصات الضخمة لديها القدرة على القيام بذلك، ناهيك عن الولايات المتحدة، ولكن خارج الولايات المتحدة.
يتطلب كل من Meta وYouTube من المعلنين السياسيين التسجيل لدى الشركة، بما في ذلك معلومات إضافية مثل من يشتري الإعلان ومكان تواجدهم. لكن هذه التقارير يتم الإبلاغ عنها ذاتيًا إلى حد كبير، مما يعني أن بعض الإعلانات يمكن أن تتسلل عبر شقوق الشركة. في سبتمبر، ذكرت مجلة WIRED أن مجموعة PragerU Kids، وهي امتداد لمجموعة PragerU اليمينية، كانت تعرض إعلانات تندرج بوضوح ضمن تعريف Meta لـ “القضايا السياسية أو الاجتماعية” – وهي الأنواع الدقيقة من الإعلانات التي تتطلب الشركة المزيد من الإعلانات لها. الشفافية. لكن PragerU Kids لم يسجل كمعلن سياسي (أزالت Meta الإعلانات بعد تقرير WIRED).
لم تستجب Meta لطلب التعليق حول الأنظمة الموجودة لديها لضمان قيام المعلنين بتصنيف إعلاناتهم بشكل صحيح.
لكن فريد يشعر بالقلق من أن التركيز المفرط على الذكاء الاصطناعي قد يصرف الانتباه عن القضايا الأكبر المتعلقة بالتضليل والمعلومات المضللة وتآكل ثقة الجمهور في النظام البيئي للمعلومات، خاصة مع قيام المنصات بتقليص فرقها التي تركز على نزاهة الانتخابات.
“إذا كنت تعتقد أن الإعلانات السياسية الخادعة سيئة، فلماذا تهتم بكيفية صنعها؟” يسأل فريد. “لا يتعلق الأمر بأنه إعلان سياسي خادع تم إنشاؤه بواسطة الذكاء الاصطناعي، ولكنه عبارة عن فترة إعلانية سياسية خادعة، نقطة كاملة.”