في الشهر الماضي ، استخدم مقطع فيديو تم نشره على تويتر من قبل الحملة الرئاسية لحاكم ولاية فلوريدا رون ديسانتيس صورًا يبدو أنها تم إنشاؤها بواسطة الذكاء الاصطناعي تظهر الرئيس السابق دونالد ترامب وهو يعانق الدكتور أنتوني فوسي. كانت الصور ، التي بدت مصممة لانتقاد ترامب لعدم إقالة أكبر متخصص في الأمراض المعدية في البلاد ، من الصعب تحديدها: فقد عُرضت جنبًا إلى جنب مع صور حقيقية للزوجين وبتراكب نص يقول ، “الحياة الحقيقية ترامب”.
عندما بدأت الصور في الانتشار ، سرعان ما قامت منظمات التحقق من الحقائق والمستخدمون ذوو العيون الحادة بالإشارة إليها على أنها مزيفة. لكن تويتر ، التي خفضت عددًا كبيرًا من موظفيها في الأشهر الأخيرة بموجب ملكية جديدة ، لم تزيل الفيديو. بدلاً من ذلك ، أضاف في النهاية ملاحظة مجتمعية – وهي ميزة يقودها المساهمون لتسليط الضوء على المعلومات الخاطئة على منصة التواصل الاجتماعي – إلى المنشور ، لتنبيه مستخدمي الموقع إلى أنه في الفيديو “3 لقطات ثابتة تظهر ترامب يحتضن Fauci هي صور تم إنشاؤها بواسطة الذكاء الاصطناعي.”
يقول خبراء في سلامة المعلومات الرقمية إنها مجرد بداية لمحتوى تم إنشاؤه بواسطة الذكاء الاصطناعي يتم استخدامه قبل الانتخابات الرئاسية الأمريكية لعام 2024 بطرق يمكن أن تربك أو تضلل الناخبين.
توفر مجموعة جديدة من أدوات الذكاء الاصطناعي القدرة على إنشاء نص مقنع وصور واقعية – وبشكل متزايد الفيديو والصوت. يقول الخبراء ، وحتى بعض المسؤولين التنفيذيين المشرفين على شركات الذكاء الاصطناعي ، إن هذه الأدوات تخاطر بنشر معلومات كاذبة لتضليل الناخبين ، بما في ذلك قبل انتخابات 2024 في الولايات المتحدة.
قال جيفين ويست ، الأستاذ في جامعة واشنطن والمؤسس المشارك لمركز الجمهور المطلع: “الحملات بدأت تتكاثف ، والانتخابات تأتي بسرعة ، والتكنولوجيا تتحسن بسرعة”. “لقد رأينا بالفعل دليلًا على التأثير الذي يمكن أن يحدثه الذكاء الاصطناعي.”
يقول الخبراء إن شركات وسائل التواصل الاجتماعي تتحمل مسؤولية كبيرة عن معالجة مثل هذه المخاطر ، باعتبارها المنصات التي يذهب إليها مليارات الأشخاص للحصول على المعلومات ، والتي غالبًا ما يذهب إليها الفاعلون السيئون لنشر ادعاءات كاذبة. لكنهم يواجهون الآن عاصفة كاملة من العوامل التي يمكن أن تجعل من الصعب أكثر من أي وقت مضى مواكبة الموجة التالية من المعلومات المضللة عن الانتخابات.
تراجعت العديد من الشبكات الاجتماعية الرئيسية عن إنفاذها لبعض المعلومات الخاطئة المتعلقة بالانتخابات وخضعت لعمليات تسريح كبيرة للعمال على مدار الأشهر الستة الماضية ، والتي أثرت في بعض الحالات على نزاهة الانتخابات وسلامتها وفرق الذكاء الاصطناعي المسؤولة. أثار المسؤولون الأمريكيون الحاليون والسابقون أيضًا مخاوف من أن قرار قاضٍ فيدرالي في وقت سابق من هذا الشهر للحد من كيفية تواصل بعض الوكالات الأمريكية مع شركات وسائل التواصل الاجتماعي قد يكون له “تأثير مخيف” على كيفية تعامل الحكومة الفيدرالية والولايات مع المعلومات المضللة المتعلقة بالانتخابات. (يوم الجمعة ، أوقفت محكمة الاستئناف الأمر مؤقتًا).
في غضون ذلك ، يتطور الذكاء الاصطناعي بوتيرة سريعة. وعلى الرغم من الدعوات من الجهات الفاعلة في الصناعة وغيرهم ، لم يقم المشرعون والمنظمون الأمريكيون بعد بتنفيذ حواجز حماية حقيقية لتقنيات الذكاء الاصطناعي.
قال ديفيد إيفان هاريس ، الباحث في الذكاء الاصطناعي ومستشار الأخلاقيات في معهد علم النفس التكنولوجي ، الذي عمل سابقًا على الذكاء الاصطناعي المسؤول في Meta أحد الوالدين على Facebook: “لست واثقًا حتى من قدرتهم على التعامل مع الأنواع القديمة من التهديدات”. “والآن هناك تهديدات جديدة.”
أخبرت المنصات الرئيسية شبكة CNN أن لديها سياسات وممارسات قائمة تتعلق بالمعلومات الخاطئة ، وفي بعض الحالات ، تستهدف على وجه التحديد المحتوى “التركيبي” أو الذي يتم إنشاؤه بواسطة الكمبيوتر ، والتي يقولون إنها ستساعدهم في تحديد ومعالجة أي معلومات خاطئة تم إنشاؤها بواسطة الذكاء الاصطناعي. لم توافق أي من الشركات على جعل أي شخص يعمل في جهود الكشف عن الذكاء الاصطناعي متاحًا للمقابلة.
قال بهاسكار شاكرافورتي ، عميد الأعمال العالمية في مدرسة فليتشر بجامعة تافتس ، لشبكة CNN: “لم تكن المنصات جاهزة في الماضي ، ولا يوجد سبب على الإطلاق للاعتقاد بأنها ستكون جاهزة الآن”.
المحتوى المضلل ، خاصة فيما يتعلق بالانتخابات ، ليس بالأمر الجديد. ولكن بمساعدة الذكاء الاصطناعي ، أصبح من الممكن الآن لأي شخص إنشاء كميات ضخمة من المحتوى المزيف بسرعة وسهولة وبتكلفة زهيدة.
وبالنظر إلى التحسن السريع لتكنولوجيا الذكاء الاصطناعي خلال العام الماضي ، فمن المرجح أن يكون تمييز الصور والنصوص والصوت ومقاطع الفيديو المزيفة أكثر صعوبة بحلول موعد الانتخابات الأمريكية العام المقبل.
لا يزال أمامنا أكثر من عام حتى الانتخابات. قال هاريس: “ستتحسن هذه الأدوات ، ويمكن أن تكون قوية جدًا في أيدي مستخدمين متطورين”. وأضاف أن أنواع المعلومات المضللة والتدخل في الانتخابات التي حدثت على وسائل التواصل الاجتماعي في عامي 2016 و 2020 من المرجح أن تتفاقم بسبب الذكاء الاصطناعي.
قالت مارغريت ميتشل ، الباحثة و كبير علماء الأخلاقيات في شركة Hugging Face مفتوحة المصدر للذكاء الاصطناعي.
يمكن أن تكون أدوات الذكاء الاصطناعي مفيدة لأي شخص يريد التضليل ، ولكن بشكل خاص للمجموعات المنظمة والخصوم الأجانب الذين لديهم حافز للتدخل في الانتخابات الأمريكية. تم التعاقد مع مزارع ترول أجنبية ضخمة لمحاولة التأثير على الانتخابات السابقة في الولايات المتحدة وأماكن أخرى ، ولكن “الآن ، يمكن لشخص واحد أن يكون مسؤولاً عن نشر آلاف الآلاف من روبوتات الذكاء الاصطناعي التي تعمل” ، لنشر المحتوى عبر وسائل التواصل الاجتماعي لتضليل الناخبين ، قال ميتشل ، الذي عمل سابقًا في Google.
أصدرت شركة OpenAI ، الشركة المصنعة لبرنامج الدردشة الآلي الشهير ChatGPT الذي يعمل بالذكاء الاصطناعي ، تحذيراً صارخاً بشأن مخاطر المعلومات الخاطئة الناتجة عن الذكاء الاصطناعي في ورقة بحثية حديثة. وقالت إن وفرة من المعلومات الخاطئة من أنظمة الذكاء الاصطناعي ، سواء كانت مقصودة أو ناتجة عن التحيزات أو “الهلوسة” من الأنظمة ، لديها “إمكانية التشكيك في بيئة المعلومات بأكملها ، مما يهدد قدرتنا على التمييز بين الحقيقة والخيال”.
بدأت أمثلة المعلومات المضللة الناتجة عن الذكاء الاصطناعي في الظهور بالفعل. في مايو ، شاركت العديد من حسابات Twitter ، بما في ذلك بعض الذين دفعوا مقابل علامة “تحقق” زرقاء ، صورًا مزيفة يُزعم أنها تُظهر انفجارًا بالقرب من البنتاغون. وبينما تم فضح الصور بسرعة ، أعقب تداولها تراجع في سوق الأسهم لفترة وجيزة. علّق موقع تويتر واحدًا على الأقل من الحسابات المسؤولة عن نشر الصور. صنف Facebook المنشورات حول الصور على أنها “معلومات خاطئة” إلى جانب التحقق من صحة الأخبار.
قبل ذلك بشهر ، أصدرت اللجنة الوطنية للحزب الجمهوري إعلانًا مدته 30 ثانية ردًا على الإعلان الرسمي للحملة الرئاسية للرئيس جو بايدن والذي استخدم صور الذكاء الاصطناعي لتخيل الولايات المتحدة البائسة بعد إعادة انتخاب الرئيس السادس والأربعين. تضمن إعلان RNC إخلاء المسؤولية الصغير الذي يظهر على الشاشة ، “تم إنشاؤه بالكامل باستخدام صور AI” ، لكن بعض الناخبين المحتملين في واشنطن العاصمة الذين عرضت عليهم شبكة CNN مقطع الفيديو لم يكتشفوه في أول مشاهدة لهم.
أرسل العشرات من المشرعين الديمقراطيين الأسبوع الماضي خطابًا يدعو لجنة الانتخابات الفيدرالية إلى النظر في اتخاذ إجراءات صارمة ضد استخدام تكنولوجيا الذكاء الاصطناعي في الإعلانات السياسية ، محذرين من أن الإعلانات الخادعة قد تضر بنزاهة انتخابات العام المقبل.
قبل عام 2024 ، قالت العديد من المنصات إنها ستطرح خططًا لحماية نزاهة الانتخابات ، بما في ذلك من تهديد المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي.
أطلقت TikTok في وقت سابق من هذا العام سياسة تنص على أنه يجب تمييز الوسائط “التركيبية” أو التي تم التلاعب بها بواسطة الذكاء الاصطناعي ، بالإضافة إلى سياسة النزاهة المدنية التي تحظر المعلومات المضللة حول العمليات الانتخابية وسياستها العامة للتضليل التي تحظر الادعاءات الكاذبة أو المضللة التي يمكن أن يسبب “ضررًا كبيرًا” للأفراد أو المجتمع.
يحتوي موقع YouTube على سياسة وسائط تم التلاعب بها تحظر المحتوى الذي “تم التلاعب به أو التلاعب به” بطريقة قد تضلل المستخدمين و “قد تشكل خطرًا جسيمًا بإحداث ضرر جسيم”. يحتوي النظام الأساسي أيضًا على سياسات ضد المحتوى الذي قد يضلل المستخدمين بشأن كيفية التصويت ووقت التصويت ، والادعاءات الكاذبة التي قد تثبط التصويت والمحتوى الذي “يشجع الآخرين على التدخل في العمليات الديمقراطية”. يقول موقع YouTube أيضًا إنه يبرز بشكل بارز الأخبار والمعلومات الموثوقة حول الانتخابات على منصته ، وأن فريقه الذي يركز على الانتخابات يضم أعضاء من فريق الثقة والسلامة والمنتجات و “مكتب الاستخبارات”.
قال المتحدث باسم YouTube Ivy Choi في بيان: “المحتوى الذي تم التلاعب به تقنيًا ، بما في ذلك المحتوى الانتخابي ، والذي يضلل المستخدمين وقد يشكل خطرًا جسيمًا بحدوث ضرر فظيع غير مسموح به على YouTube”. “نحن نفرض سياسة المحتوى الذي تم التلاعب به باستخدام التعلم الآلي والمراجعة البشرية ، ونواصل تحسين هذا العمل للبقاء في صدارة التهديدات المحتملة.”
قال متحدث باسم Meta لشبكة CNN إن سياسات الشركة تنطبق على جميع المحتوى على أنظمتها الأساسية ، بما في ذلك المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي. يتضمن ذلك سياسة المعلومات المضللة ، والتي تنص على أن المنصة تزيل الادعاءات الكاذبة التي يمكن أن “تساهم بشكل مباشر في التدخل في سير العمليات السياسية وبعض وسائل الإعلام المضللة للغاية” ، وقد تقلل من انتشار الادعاءات المضللة الأخرى. تحظر Meta أيضًا الإعلانات التي تعرض محتوى تم فضحه من خلال شبكة مدققي الحقائق التابعة لجهات خارجية.
انضم TikTok و Meta أيضًا إلى مجموعة من شركاء صناعة التكنولوجيا بتنسيق من الشراكة غير الربحية حول الذكاء الاصطناعي المخصصة لتطوير إطار عمل للاستخدام المسؤول للوسائط التركيبية.
عند طلب التعليق على هذه القصة ، رد Twitter بالرد التلقائي على رمز تعبيري عن أنبوب.
تراجع موقع Twitter عن الكثير من عمليات الإشراف على المحتوى في الأشهر التي تلت سيطرة الملياردير Elon Musk على المنصة ، وبدلاً من ذلك اعتمد بشكل أكبر على ميزة “ملاحظات المجتمع” التي تسمح للمستخدمين بانتقاد دقة منشورات الآخرين وإضافة سياق إليها. على موقع الويب الخاص به ، يقول تويتر أيضًا إن لديه سياسة “وسائط تركيبية” والتي بموجبها قد تصنف أو تزيل الوسائط “الاصطناعية أو التي تم التلاعب بها أو خارج السياق التي قد تخدع الأشخاص أو تربكهم وتؤدي إلى الأذى”.
ومع ذلك ، كما هو الحال في كثير من الأحيان مع وسائل التواصل الاجتماعي ، من المرجح أن يكون التحدي ليس مسألة وجود سياسات مطبقة بقدر ما يتعلق بإنفاذها. تستخدم المنصات إلى حد كبير مزيجًا من المراجعة البشرية والآلية لتحديد المعلومات المضللة والوسائط التي تم التلاعب بها. رفضت الشركات تقديم تفاصيل إضافية حول عمليات اكتشاف الذكاء الاصطناعي ، بما في ذلك عدد الموظفين المشاركين في هذه الجهود.
لكن خبراء الذكاء الاصطناعي يقولون إنهم قلقون من أن أنظمة الكشف عن الأنظمة الأساسية للمحتوى الذي يتم إنشاؤه بواسطة الكمبيوتر قد تواجه صعوبة في مواكبة التطورات التكنولوجية. حتى بعض الشركات التي تطور أدوات ذكاء اصطناعي جديدة تكافح من أجل بناء خدمات يمكنها الكشف بدقة عندما يتم إنشاء شيء ما بواسطة الذكاء الاصطناعي.
يحث بعض الخبراء جميع المنصات الاجتماعية على تنفيذ سياسات تتطلب تمييز المحتوى الذي يتم إنشاؤه أو التلاعب به بواسطة الذكاء الاصطناعي بشكل واضح ، ودعوة المنظمين والمشرعين إلى إنشاء حواجز حماية حول الذكاء الاصطناعي ومحاسبة شركات التكنولوجيا على انتشار الادعاءات الكاذبة.
هناك شيء واحد واضح: مخاطر النجاح كبيرة. يقول الخبراء أن المحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي لا يؤدي فقط إلى خطر تضليل مستخدمي الإنترنت من خلال المعلومات الخاطئة ؛ كما يمكن أن يجعل من الصعب عليهم الوثوق بمعلومات حقيقية حول كل شيء من التصويت إلى حالات الأزمات.
قال ميتشل: “نحن نعلم أننا نواجه موقفًا مخيفًا للغاية حيث سيكون من غير الواضح تمامًا ما حدث وما لم يحدث بالفعل”. “إنه يدمر أساس الواقع تمامًا عندما يتعلق الأمر بمعرفة ما إذا كان المحتوى الذي تراه حقيقيًا أم لا.”