افتح ملخص المحرر مجانًا
رولا خلف، محررة الفايننشال تايمز، تختار قصصها المفضلة في هذه النشرة الأسبوعية.
الكاتب هو الرئيس المشارك لمجلس الرقابة في ميتا ورئيس وزراء الدنمارك السابق
من الولايات المتحدة إلى المملكة المتحدة، ومن الهند إلى إندونيسيا، ومن المكسيك إلى جنوب أفريقيا، سيتوجه ما يقرب من نصف سكان العالم إلى صناديق الاقتراع في عام 2024. ولكن إذا لم نكن حذرين، فإن العام الذي يحطم الأرقام القياسية في الانتخابات قد يتفكك أيضا. ديمقراطية.
لقد رأيت بنفسي كيف تعمل الجهات الفاعلة السيئة داخل وخارج الإنترنت لتقويض العمليات الديمقراطية العادلة. وبمرور الوقت، أصبحت هذه الجهود أكثر تعقيدا. أصبحت منصات التواصل الاجتماعي بمثابة منتديات لزرع المعلومات المضللة والتحريض على العنف. ومع اقتراب العديد من الانتخابات، تتفاقم المخاطر الناجمة عن الذكاء الاصطناعي.
وتنتشر مقاطع فيديو وتسجيلات صوتية مزيفة لمرشحين يطلبون من أنصارهم عدم التصويت. يُسمع السياسيون المستنسخون وهم يتلاعبون بالانتخابات أو يسرقونها. وليس السياسيون وحدهم هم المتأثرون. في الأسبوع الماضي فقط، اضطر X إلى حظر عمليات البحث عن تايلور سويفت بعد أن تم تداول صور صريحة لها تم إنشاؤها بواسطة الذكاء الاصطناعي على الموقع. دعا السياسيون الأمريكيون الآن إلى اتخاذ إجراءات عاجلة لتجريم إنشاء صور مزيفة بعمق. ولكن بينما نركز على المشكلات التي تسببها التقنيات الجديدة، فإن شركات التكنولوجيا تخاطر بإغفال المحتوى الذي يتم تغييره باستخدام أدوات أكثر أساسية.
أصدر مجلس الرقابة، الذي يتخذ قرارات مستقلة بشأن المحتوى على فيسبوك وإنستغرام، يوم الاثنين، قرارًا تاريخيًا بشأن محتوى الفيديو الذي تم تعديله لجعله يبدو كما لو أن الرئيس الأمريكي جو بايدن كان يلمس صدر حفيدته البالغة بشكل غير لائق. لقد وجدنا أن المنشور لم ينتهك سياسة الوسائط الحالية التي تم التلاعب بها في Meta، ويرجع ذلك جزئيًا إلى أنه لم يتم إنشاؤه بواسطة الذكاء الاصطناعي وكان التغيير في الفيديو واضحًا.
ومع ذلك، وجدنا أيضًا أن هذه السياسة لا معنى لها. فهو يحظر مقاطع الفيديو المعدلة التي تظهر أشخاصًا يقولون أشياء لم يقولوها، لكنه لا يحظر المنشورات التي تصور شخصًا يفعل شيئًا لم يفعله. وينطبق هذا فقط على الفيديو الذي تم إنشاؤه من خلال الذكاء الاصطناعي، ولكنه يسمح للمحتوى المزيف الآخر بالإفلات من العقاب.
بالإضافة إلى سد هذه الثغرات، يجب على Meta التوقف عن إزالة الوسائط التي تم التلاعب بها في حالة عدم حدوث انتهاك آخر للسياسة وبدلاً من ذلك وضع علامة تشير إلى أن المحتوى قد تم تغييره بشكل كبير ويمكن أن يكون مضللاً.
لمواكبة التهديد الذي تشكله الجهات الفاعلة السيئة، لا تحتاج منصات وسائل التواصل الاجتماعي إلى إعادة اختراع العجلة. يجب عليهم تقليل التعقيد والعودة إلى الأساسيات.
أولاً، يجب أن تحدد السياسات التي تقمع حرية التعبير الضرر الواقعي الذي تحاول منعه. هناك توترات واضحة بين السماح بحرية التعبير وحماية الناس من الأذى في العالم الحقيقي. تعد نية المستخدم وكيفية فهم المستخدمين الآخرين للمحتوى الخاص بهم أمرًا أساسيًا لتحديد احتمال حدوث مثل هذا الضرر.
ثانياً، في حالات الأزمات، بما في ذلك الانتخابات التي يكون فيها خطر العنف مرتفعاً، ينبغي للسياسات أن تعكس التهديدات للسلامة والأمن الجسديين. من المهم وجود نظام واضح لإدارة المحتوى أثناء الأزمات.
ثالثا، الشفافية أمر أساسي. ولن نتمكن من بناء الثقة إلا من خلال إظهار كيفية اتخاذ القرارات ومحاسبة الأشخاص. لقد دفع مجلس الإدارة شركة Meta لمشاركة مقاييسها حول كيفية مراقبة جهودها التي سبقت “الأحداث الحاسمة المتوقعة” وأثناءها وبعدها، مثل الانتخابات. وتتوقع الشركة نشرها في النصف الأخير من عام 2024.
وينبغي أيضًا الإعلان عن الطلبات الحكومية لإزالة المحتوى. يمكن للرقابة غير المتناسبة أن تساهم في خلق مناخ من المعلومات الخاطئة وتؤثر على حقوق المستخدمين في الوصول إلى المعلومات أو تبادل الآراء.
من الممكن وضع خريطة طريق لحماية حرية التعبير وتعزيز العمل الأخلاقي على الإنترنت. لكن يجب على الحكومات والجهات التنظيمية والمجتمع المدني والأكاديميين العمل معنا إذا أردنا مواجهة التحدي المتمثل في مكافحة التضليل الانتخابي.