وبعد بضع ساعات أصبحوا على استعداد لتأكيد اعتقادهم بأن التسجيل قد تم تغييره. تقول علامتهم، التي لا تزال متاحة للمشاهدة على فيسبوك باللغة السلوفاكية عندما يصادف الزائرون المنشور: “يقول مدققو الحقائق المستقلون إن الصورة أو الصورة تم تحريرها بطريقة يمكن أن تضلل الناس”. يمكن لمستخدمي Facebook بعد ذلك اختيار ما إذا كانوا يريدون مشاهدة الفيديو على أي حال.
تظل كل من التسجيلات الصوتية الخاصة بالبيرة وتزوير الأصوات مرئية على فيسبوك، مع علامة التحقق من صحة الأخبار. يقول بن والتر، المتحدث الرسمي باسم Meta: “عندما يتم التحقق من صحة المحتوى، فإننا نصنفه ونخفض تصنيفه في الموجز، بحيث يراه عدد أقل من الأشخاص – كما حدث مع هذين المثالين”. “تنطبق معايير مجتمعنا على كل المحتوى، بغض النظر عما إذا تم إنشاؤه بواسطة الذكاء الاصطناعي أو بواسطة شخص، وسنتخذ إجراءات ضد المحتوى الذي ينتهك هذه السياسات.”
كانت هذه الانتخابات واحدة من أولى عمليات التصويت اللاحقة التي تم إجراؤها بعد تقديم قانون الخدمات الرقمية للاتحاد الأوروبي في أغسطس. قدم القانون، المصمم لحماية حقوق الإنسان على الإنترنت بشكل أفضل، قواعد جديدة كان من المفترض أن تجبر المنصات على أن تكون أكثر استباقية وشفافية في جهودها للتخفيف من المعلومات المضللة.
يقول ريتشارد كوتشتا، المحلل في مجموعة ريسيت، وهي مجموعة بحثية تركز على تأثير التكنولوجيا على الديمقراطية: “كانت سلوفاكيا بمثابة حالة اختبار لمعرفة ما الذي ينجح وأين تحتاج إلى بعض التحسينات”. “من وجهة نظري، (القانون الجديد) يضغط على المنصات لزيادة القدرات في الإشراف على المحتوى أو التحقق من الحقائق. نحن نعلم أن ميتا عينت المزيد من مدققي الحقائق للانتخابات السلوفاكية، لكننا سنرى ما إذا كان ذلك كافيا”.
إلى جانب التسجيلين الصوتيين المزيفين، شهد Kuchta أيضًا مقطعي فيديو آخرين يظهران انتحالًا صوتيًا للذكاء الاصطناعي يتم نشرهما على وسائل التواصل الاجتماعي من قبل حزب Republika اليميني المتطرف. انتحل أحدهما شخصية ميشال شيميكا والآخر الرئيس زوزانا تشابوتوفا. وتضمنت هذه التسجيلات الصوتية تصريحات بأن الأصوات مزيفة: “هذه الأصوات وهمية وتشابهها مع الأشخاص الحقيقيين هو من قبيل الصدفة البحتة”. ومع ذلك، فإن هذا البيان لا يظهر إلا بعد 15 ثانية من مقطع الفيديو الذي تبلغ مدته 20 ثانية، كما يقول كوتشا، فيما شعر أنه محاولة لخداع المستمعين.
وكانت الانتخابات السلوفاكية تتم مراقبتها عن كثب في بولندا. يقول جاكوب سليز، رئيس مجموعة التحقق من الحقائق البولندية “جمعية برافدا”: “بالطبع، فإن المعلومات المضللة التي يولدها الذكاء الاصطناعي هي شيء نخاف منه للغاية، لأنه من الصعب للغاية الرد عليه بسرعة”. يقول أوليز إنه يشعر بالقلق أيضًا من الاتجاه السائد في سلوفاكيا نحو تجميع المعلومات المضللة في تسجيلات صوتية، بدلاً من الفيديو أو الصور، لأن استنساخ الصوت يصعب التعرف عليه.
ومثل هينكوفا فرانكوفسكا في سلوفاكيا، يفتقر Śliż أيضًا إلى الأدوات التي تساعده بشكل موثوق في تحديد ما تم إنشاؤه أو التلاعب به باستخدام الذكاء الاصطناعي. ويقول: “إن الأدوات المتاحة تعطيك درجة احتمالية”. لكن هذه الأدوات تعاني من مشكلة الصندوق الأسود. إنه لا يعرف كيف قرروا أن المنشور من المحتمل أن يكون مزيفًا. “إذا كانت لدي أداة تستخدم ذكاءً اصطناعيًا آخر لتخبرني بطريقة سحرية أن 87 بالمائة من الذكاء الاصطناعي قد تم إنشاؤه، فكيف من المفترض أن أنقل هذه الرسالة إلى جمهوري؟” هو يقول.
يقول Śliż، لم يتم تداول الكثير من المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي في بولندا حتى الآن. “لكن الناس يستخدمون حقيقة أن شيئًا ما يستطيع سيتم إنشاء الذكاء الاصطناعي لتشويه سمعة المصادر الحقيقية. أمامنا أسبوعان قبل أن يقرر الناخبون البولنديون ما إذا كان حزب القانون والعدالة المحافظ الحاكم يجب أن يبقى في الحكومة لفترة ثالثة غير مسبوقة. وفي نهاية هذا الأسبوع، تجمع حشد كبير في وارسو لدعم المعارضة، حيث قدرت حكومة المدينة التي تسيطر عليها المعارضة أن الحشد وصل إلى مليون شخص في ذروته. لكن على موقع X، المعروف سابقًا باسم تويتر، اقترح المستخدمون أن مقاطع الفيديو الخاصة بالمسيرة قد تم التلاعب بها باستخدام الذكاء الاصطناعي لجعل الحشد يبدو أكبر.
يعتقد Śliż أنه من السهل التحقق من صحة هذا النوع من المحتوى، من خلال الرجوع إلى مصادر مختلفة. ولكن إذا بدأ تداول التسجيلات الصوتية التي أنشأها الذكاء الاصطناعي في بولندا في الساعات الأخيرة قبل التصويت، كما حدث في سلوفاكيا، فسيكون ذلك أكثر صعوبة. ويقول: “باعتبارنا منظمة لتدقيق الحقائق، ليس لدينا خطة ملموسة لكيفية التعامل معها”. لذا، إذا حدث شيء كهذا، فسيكون الأمر مؤلمًا”.