نيويورك (أ ب) – أثار مقطع فيديو تم التلاعب به يحاكي صوت نائبة الرئيس كامالا هاريس وهي تقول أشياء لم تقلها، مخاوف بشأن قدرة الذكاء الاصطناعي على التضليل مع اقتراب يوم الانتخابات بعد حوالي ثلاثة أشهر.
وحظي الفيديو باهتمام كبير بعد أن شاركه الملياردير إيلون ماسك على منصته للتواصل الاجتماعي X مساء الجمعة دون الإشارة صراحة إلى أنه تم إصداره في الأصل كمحاكاة ساخرة.
ويستخدم الفيديو العديد من الصور المرئية نفسها التي استخدمت في إعلان حقيقي أطلقته هاريس، المرشحة المحتملة لمنصب الرئيس الديمقراطي، الأسبوع الماضي لإطلاق حملتها. لكن الفيديو يستبدل الصوت المصاحب بصوت آخر يقلد هاريس بشكل مقنع.
وتقول الصوت في الفيديو: “أنا كامالا هاريس مرشحتك الديمقراطية للرئاسة لأن جو بايدن كشف أخيرًا عن خرفه في المناظرة”.
ويزعم الفيديو أن هاريس “تم توظيفها من أجل التنوع” لأنها امرأة وشخصية ملونة، ويقول إنها لا تعرف “أي شيء عن إدارة البلاد”. ويحتفظ الفيديو بشعار “هاريس للرئاسة”. ويضيف أيضًا بعض المقاطع الأصلية السابقة لهاريس.
وقالت ميا إيرينبيرج، المتحدثة باسم حملة هاريس، في رسالة بالبريد الإلكتروني إلى وكالة أسوشيتد برس: “نعتقد أن الشعب الأمريكي يريد الحرية الحقيقية والفرصة والأمن الذي تقدمه نائبة الرئيس هاريس؛ وليس الأكاذيب المزيفة والمُتلاعب بها من قبل إيلون ماسك ودونالد ترامب”.
إن الفيديو الذي انتشر على نطاق واسع هو مثال على كيفية استخدام الصور أو مقاطع الفيديو أو المقاطع الصوتية التي تم إنشاؤها بواسطة الذكاء الاصطناعي والتي تشبه الواقع للسخرية وتضليل الناس بشأن السياسة مع اقتراب الولايات المتحدة من الانتخابات الرئاسية. ويكشف الفيديو كيف أنه على الرغم من أن أدوات الذكاء الاصطناعي عالية الجودة أصبحت أكثر سهولة في الوصول إليها، إلا أنه لا يزال هناك نقص في الإجراءات الفيدرالية المهمة حتى الآن لتنظيم استخدامها، مما يترك القواعد التي توجه الذكاء الاصطناعي في السياسة إلى حد كبير للولايات ومنصات التواصل الاجتماعي.
ويثير الفيديو أيضًا تساؤلات حول أفضل السبل للتعامل مع المحتوى الذي يطمس الخطوط الفاصلة بين ما يعتبر استخدامًا مناسبًا للذكاء الاصطناعي، خاصة إذا كان يندرج ضمن فئة السخرية.
وقد كشف المستخدم الأصلي الذي نشر الفيديو، وهو أحد مستخدمي موقع يوتيوب المعروف باسم السيد ريغان، على موقع يوتيوب وعلى موقع إكس أن الفيديو الذي تم التلاعب به هو محاكاة ساخرة. لكن منشور ماسك، الذي تمت مشاهدته أكثر من 123 مليون مرة، وفقًا للمنصة، لا يتضمن سوى تعليق “هذا مذهل” مع رمز تعبيري ضاحك.
قد يعرف مستخدمو X الذين يعرفون المنصة أنه يتعين عليهم النقر فوق منشور Musk للوصول إلى منشور المستخدم الأصلي، حيث يكون الإفصاح مرئيًا. لا يوجههم تعليق Musk إلى القيام بذلك.
في حين اقترح بعض المشاركين في ميزة “الملاحظة المجتمعية” في X لإضافة سياق إلى المنشورات وضع علامة على منشور ماسك، لم تتم إضافة مثل هذه العلامة إليه حتى ظهر يوم الأحد. تساءل بعض المستخدمين عبر الإنترنت عما إذا كان منشوره قد ينتهك سياسات X، والتي تنص على أن المستخدمين “لا يجوز لهم مشاركة الوسائط الاصطناعية أو المتلاعب بها أو خارج السياق والتي قد تخدع أو تربك الناس وتؤدي إلى الأذى”.
وتستثني السياسة الميمات والسخرية طالما أنها لا تسبب “ارتباكًا كبيرًا حول صحة الوسائط”.
أيد ماسك الرئيس السابق دونالد ترامب، المرشح الجمهوري، في وقت سابق من هذا الشهر. ولم يستجب ريغان ولا ماسك على الفور لطلبات التعليق التي أُرسلت عبر البريد الإلكتروني يوم الأحد.
قام خبيران متخصصان في الوسائط التي يتم إنشاؤها بواسطة الذكاء الاصطناعي بمراجعة الصوت الخاص بالإعلان المزيف وأكدا أن الكثير منه تم إنشاؤه باستخدام تقنية الذكاء الاصطناعي.
وقال أحد الخبراء، وهو خبير الأدلة الرقمية بجامعة كاليفورنيا في بيركلي، هاني فريد، إن الفيديو يظهر قوة الذكاء الاصطناعي التوليدي والتزييف العميق.
وقال في رسالة بالبريد الإلكتروني: “الصوت الذي تم إنشاؤه بواسطة الذكاء الاصطناعي جيد جدًا. وعلى الرغم من أن معظم الناس لن يصدقوا أنه صوت نائبة الرئيس هاريس، فإن الفيديو يكون أقوى بكثير عندما تكون الكلمات بصوتها”.
وقال إن شركات الذكاء الاصطناعي التوليدي التي تجعل أدوات استنساخ الصوت وأدوات الذكاء الاصطناعي الأخرى متاحة للجمهور يجب أن تبذل المزيد من الجهود لضمان عدم استخدام خدماتها بطرق قد تضر بالناس أو الديمقراطية.
أبدى روب وايسمان، الرئيس المشارك لمجموعة الدفاع عن حقوق المواطنين، اختلافه مع فريد، قائلاً إنه يعتقد أن العديد من الناس سوف ينخدعون بالفيديو.
“لا أعتقد أن هذا مزحة بكل وضوح”، هكذا صرح فايسمان في مقابلة. “أنا متأكد من أن معظم الناس الذين يشاهدون الفيلم لا يفترضون أنه مزحة. الجودة ليست رائعة، لكنها جيدة بما فيه الكفاية. وبالتحديد لأنها تغذي موضوعات موجودة مسبقًا كانت تدور حولها، فإن معظم الناس سيصدقون أنها حقيقية”.
وقال فايسمان، الذي دعت منظمته الكونجرس والوكالات الفيدرالية والولايات إلى تنظيم الذكاء الاصطناعي التوليدي، إن الفيديو هو “نوع الشيء الذي كنا نحذر منه”.
كانت عمليات التزييف العميق الأخرى التي تم إنشاؤها باستخدام الذكاء الاصطناعي في الولايات المتحدة وأماكن أخرى قد حاولت التأثير على الناخبين من خلال المعلومات المضللة أو الفكاهة أو كليهما. في سلوفاكيا في عام 2023، انتحلت مقاطع صوتية مزيفة شخصية مرشح يناقش خططًا لتزوير الانتخابات ورفع سعر البيرة قبل أيام من التصويت. في لويزيانا في عام 2022، فرض إعلان ساخر للجنة العمل السياسي وجه مرشح لمنصب عمدة لويزيانا على ممثل يصوره كطالب ثانوي غير متفوق.
ولم يقر الكونجرس بعد تشريعات بشأن استخدام الذكاء الاصطناعي في السياسة، ولم تتخذ الوكالات الفيدرالية سوى خطوات محدودة، تاركة معظم التنظيمات الأمريكية القائمة للولايات. ووفقًا للمؤتمر الوطني للهيئات التشريعية للولايات، فقد أنشأت أكثر من ثلث الولايات قوانينها الخاصة التي تنظم استخدام الذكاء الاصطناعي في الحملات والانتخابات.
وبالإضافة إلى X، وضعت شركات التواصل الاجتماعي الأخرى أيضًا سياسات تتعلق بالوسائط المصطنعة والمُتلاعب بها التي يتم مشاركتها على منصاتها. على سبيل المثال، يتعين على المستخدمين على منصة الفيديو YouTube الكشف عما إذا كانوا قد استخدموا الذكاء الاصطناعي التوليدي لإنشاء مقاطع فيديو أو مواجهة الإيقاف.
تتلقى وكالة أسوشيتد برس الدعم من عدة مؤسسات خاصة لتعزيز تغطيتها التوضيحية للانتخابات والديمقراطية. تعرف على المزيد حول مبادرة الديمقراطية التي أطلقتها وكالة أسوشيتد برس هنا. وكالة أسوشيتد برس هي المسؤولة الوحيدة عن كل المحتوى.