قبل سنوات عديدة من إصدار ChatGPT، تساءلت مجموعتي البحثية، مختبر صنع القرار الاجتماعي بجامعة كامبريدج، عما إذا كان من الممكن جعل الشبكات العصبية تولد معلومات مضللة. ولتحقيق ذلك، قمنا بتدريب GPT-2، سلف ChatGPT، على أمثلة لنظريات المؤامرة الشائعة ثم طلبنا منه توليد أخبار مزيفة لنا. لقد أعطتنا الآلاف من القصص الإخبارية المضللة ولكنها تبدو معقولة. بعض الأمثلة: “لقاحات معينة محملة بمواد كيميائية وسموم خطيرة”، و”تلاعب المسؤولون الحكوميون بأسعار الأسهم لإخفاء الفضائح”. وكان السؤال: هل يصدق أحد هذه الادعاءات؟
لقد أنشأنا أول أداة قياس نفسي لاختبار هذه الفرضية، والتي أطلقنا عليها اسم اختبار حساسية المعلومات الخاطئة (MIST). بالتعاون مع YouGov، استخدمنا العناوين الرئيسية التي ينشئها الذكاء الاصطناعي لاختبار مدى تأثر الأمريكيين بالأخبار الكاذبة التي ينشئها الذكاء الاصطناعي. وكانت النتائج مثيرة للقلق: فقد اعتقد 41% من الأمريكيين بشكل خاطئ أن العنوان الرئيسي للقاح كان صحيحًا، واعتقد 46% أن الحكومة كانت تتلاعب بسوق الأوراق المالية. دراسة حديثة أخرى نشرت في المجلة علوملم يُظهر أن GPT-3 ينتج معلومات مضللة أكثر إقناعًا من البشر فحسب، بل أظهر أيضًا أن الناس لا يستطيعون التمييز بشكل موثوق بين المعلومات الخاطئة البشرية وتلك الناتجة عن الذكاء الاصطناعي.
توقعاتي لعام 2024 هي أن المعلومات الخاطئة التي ينتجها الذكاء الاصطناعي ستصل إلى الانتخابات القريبة منك، ومن المحتمل أنك لن تدرك ذلك. في الواقع، ربما تكون قد تعرضت بالفعل لبعض الأمثلة. في مايو من عام 2023، كانت القصة المزيفة المنتشرة حول تفجير في البنتاغون مصحوبة بصورة تم إنشاؤها بواسطة الذكاء الاصطناعي والتي أظهرت سحابة كبيرة من الدخان. تسبب هذا في ضجة عامة وحتى انخفاض في سوق الأسهم. استخدم المرشح الرئاسي الجمهوري رون ديسانتيس صورًا مزيفة لدونالد ترامب وهو يعانق أنتوني فوسي كجزء من حملته السياسية. ومن خلال مزج الصور الحقيقية والصور المولدة بواسطة الذكاء الاصطناعي، يستطيع الساسة طمس الخطوط الفاصلة بين الحقيقة والخيال، واستخدام الذكاء الاصطناعي لتعزيز هجماتهم السياسية.
قبل انفجار الذكاء الاصطناعي التوليدي، كانت شركات الدعاية السيبرانية في جميع أنحاء العالم بحاجة إلى كتابة رسائل مضللة بنفسها، وتوظيف مصانع المتصيدين البشريين لاستهداف الناس على نطاق واسع. وبمساعدة الذكاء الاصطناعي، يمكن أتمتة عملية توليد عناوين الأخبار المضللة واستخدامها كسلاح بأقل قدر من التدخل البشري. على سبيل المثال، كان الاستهداف الجزئي – وهو ممارسة استهداف الأشخاص برسائل تعتمد على بيانات التتبع الرقمي، مثل إعجاباتهم على فيسبوك – مصدر قلق بالفعل في الانتخابات الماضية، على الرغم من أن العقبة الرئيسية التي واجهته هي الحاجة إلى إنشاء مئات الأشكال المختلفة لنفس الرسالة. لمعرفة ما يصلح لمجموعة معينة من الناس. وما كان ذات يوم يتطلب عمالة كثيفة وباهظة الثمن أصبح الآن رخيصًا ومتاحًا بسهولة دون أي عائق أمام الدخول. لقد أضفى الذكاء الاصطناعي طابعًا ديمقراطيًا بشكل فعال على إنشاء المعلومات المضللة: يمكن لأي شخص لديه إمكانية الوصول إلى برنامج الدردشة الآلية أن يزرع النموذج حول موضوع معين، سواء كان ذلك الهجرة، أو السيطرة على الأسلحة، أو تغير المناخ، أو قضايا LGBTQ+، وإنشاء العشرات من القصص الإخبارية المزيفة المقنعة للغاية في دقائق. . في الواقع، ظهرت بالفعل المئات من المواقع الإخبارية التي أنشأها الذكاء الاصطناعي، وتنشر قصصًا ومقاطع فيديو كاذبة.
ولاختبار تأثير مثل هذه المعلومات المضللة التي ينتجها الذكاء الاصطناعي على التفضيلات السياسية للناس، أنشأ باحثون من جامعة أمستردام مقطع فيديو مزيفًا عميقًا لسياسي يسيء إلى قاعدة ناخبيه المتدينين. على سبيل المثال، قال السياسي مازحا في الفيديو: “كما يقول المسيح، لا تصلبني من أجل ذلك”. ووجد الباحثون أن الناخبين المسيحيين المتدينين الذين شاهدوا الفيديو المزيف كان لديهم مواقف سلبية تجاه السياسي أكثر من أولئك الموجودين في المجموعة الضابطة.
إن خداع الأشخاص بمعلومات مضللة ناتجة عن الذكاء الاصطناعي في التجارب أمر واحد. إنها تجربة أخرى مع ديمقراطيتنا. في عام 2024، سنرى المزيد من التزييف العميق، واستنساخ الصوت، والتلاعب بالهوية، والأخبار المزيفة التي ينتجها الذكاء الاصطناعي. سوف تحد الحكومات بشكل جدي من استخدام الذكاء الاصطناعي في الحملات السياسية، إن لم تكن تحظره. لأنهم إذا لم يفعلوا ذلك، فإن الذكاء الاصطناعي سوف يقوض الانتخابات الديمقراطية.