من المقرر أن تشترط شركة جوجل أن تكون الإعلانات السياسية التي تستخدم الذكاء الاصطناعي لإنشاء صور أو أصوات مصحوبة بإفصاح مرئي للمستخدمين.
وقال زيفن هافينز، مدير السياسات في مشروع Bull Moose، لقناة Fox News Digital: “يجب بالتأكيد الكشف عن المحتوى الناتج عن الذكاء الاصطناعي في الإعلانات السياسية. وعدم القيام بذلك يترك الشعب الأمريكي عرضة لإعلانات الحملات المضللة والمفترسة”. “في غياب الإجراءات الحكومية، نحن ندعم إنشاء قواعد جديدة للتعامل مع الحدود الجديدة للتكنولوجيا قبل أن تصبح مشكلة كبيرة”
وتأتي تعليقات هافينز بعد أن كشفت جوجل الأسبوع الماضي أنها ستبدأ في طلب الكشف عن استخدام الذكاء الاصطناعي لتغيير الصور في الإعلانات السياسية بدءًا من نوفمبر، أي قبل أكثر من عام بقليل من انتخابات 2024، وفقًا لتقرير PBS. سيشترط عملاق البحث أن يكون الكشف المرفق بالإعلانات “واضحًا وظاهرًا” وأن يكون موجودًا أيضًا في منطقة من الإعلان من المرجح أن يلاحظها المستخدمون.
سلسلة من الأخطاء البلهاء تؤدي إلى توقف تجربة الذكاء الاصطناعي في الصحف الكبرى
وتأتي هذه الخطوة في الوقت الذي بدأت فيه الحملات السياسية في زيادة استخدام تكنولوجيا الذكاء الاصطناعي في الإعلان عن هذه الدورة، بما في ذلك إعلانات حاكم فلوريدا رون ديسانتيس، المرشح للحزب الجمهوري في عام 2024، واللجنة الوطنية للحزب الجمهوري.
في أحد إعلانات DeSantis التي استهدفت الرئيس السابق دونالد ترامب في شهر يونيو، استخدمت الحملة صورًا مزيفة واقعية تصور الرئيس السابق وهو يعانق الدكتور أنتوني فوسي. واستهدف الإعلان ترامب لفشله في إقالة فوسي خلال ذروة الوباء، مشيرًا إلى أن الرئيس السابق “أصبح اسمًا مألوفًا” من خلال طرد الناس على شاشة التلفزيون لكنه فشل في التخلص من خبير الأمراض المعدية المثير للجدل.
تحتوي نسخة من الإعلان المنشور على X، منصة التواصل الاجتماعي المعروفة سابقًا باسم Twitter، على سياق مضاف للقارئ يحذر المشاهدين من أن الإعلان “يحتوي على صور حقيقية تتخللها صور تم إنشاؤها بواسطة الذكاء الاصطناعي لترامب وهو يعانق ويقبل” فوسي.
يمكن أن تصبح مثل هذه التحذيرات الآن شائعة في الإعلانات الموضوعة على جوجل، على الرغم من أن بعض الخبراء يعتقدون أن التصنيفات من غير المرجح أن تحدث فرقًا كبيرًا.
المقالات التي تنتجها شركة الإعلام الليبرالي تثير غضب الموظفين وتحرجهم: ‘F—ING DOGS–T’
وقال كريستوفر ألكساندر، كبير مسؤولي التحليلات في Pioneer Development Group، لـ Fox News Digital: “أعتقد أن هذا إجراء يبعث على الشعور بالسعادة ولا يحقق شيئًا”. “هل يخطئ الذكاء الاصطناعي في فهم المحتوى أم أن الإنسان يكذب عمدًا؟ ما لم تكن ترغب في البدء في مقاضاة السياسيين بتهمة الكذب، فإن هذا يشبه تنظيم قمصان كولت النارية كإجراء للسيطرة على الأسلحة. هذا النوع من القوادة وإثارة الخوف بشأن الذكاء الاصطناعي هو أمر غير مسؤول ويخنق فقط الابتكار بينما لا يحقق أي شيء مفيد.”
في الشهر الماضي، كشفت لجنة الانتخابات الفيدرالية (FEC) عن خطط لتنظيم المحتوى الناتج عن الذكاء الاصطناعي في الإعلانات السياسية قبل انتخابات عام 2024، وفقًا لتقرير PBS، في حين أعرب المشرعون مثل زعيم الأغلبية في مجلس الشيوخ تشاك شومر، DN.Y. الاهتمام بدفع التشريعات لإنشاء لوائح للمحتوى الناتج عن الذكاء الاصطناعي.
لكن جوناثان د. أسكوناس، أستاذ مساعد في السياسة وزميل في مركز دراسة حنكة الدولة في الجامعة الكاثوليكية الأمريكية، شكك في مدى فعالية مثل هذه القواعد.
ما هو الذكاء الاصطناعي؟
وقال أسكوناس لفوكس نيوز ديجيتال: “المشكلة الحقيقية هي أن جوجل لديها قبضة احتكارية على صناعة الإعلان، مما يجعل إملاءاتها أكثر أهمية من لجنة الانتخابات الفيدرالية”. “يبدو أن نوعًا ما من إخلاء المسؤولية أو التصنيف غير ضار إلى حد ما ونوع من اللامبالاة. ما يهم أكثر هو أن السياسات يتم تطبيقها دون تحيز حزبي. وسجل شركات التكنولوجيا الكبرى ليس مشجعًا”.
صرح متحدث باسم Google لـ Fox News Digital أن السياسة الجديدة تعد إضافة إلى جهود الشركة بشأن شفافية الإعلانات الانتخابية، والتي تضمنت في الماضي إفصاحات “مدفوعة مقابل” ومكتبة عامة للإعلانات تتيح للمستخدمين عرض المزيد من المعلومات.
وقال المتحدث: “نظرًا للانتشار المتزايد للأدوات التي تنتج محتوى اصطناعيًا، فإننا نعمل على توسيع سياساتنا خطوة أخرى لمطالبة المعلنين بالكشف عن متى تتضمن إعلاناتهم الانتخابية مواد تم تعديلها أو إنشاؤها رقميًا”. “يعتمد هذا التحديث على جهود الشفافية الحالية لدينا – وسيساعد في دعم الإعلانات السياسية المسؤولة بشكل أكبر وتزويد الناخبين بالمعلومات التي يحتاجون إليها لاتخاذ قرارات مستنيرة.”
قال فيل سيجل، مؤسس مركز التأهب المتقدم ومحاكاة الاستجابة للتهديدات، أو CAPTRS، لقناة Fox News Digital إن “القصد” من وراء قاعدة Google الجديدة جيد، لكنه حذر من كيفية تنفيذها ومدى قيمتها. يكون للمستخدمين يبقى سؤالا رئيسيا. واقترح أن تضيف لجنة الانتخابات الفيدرالية قواعد إلى “شرط الاستعداد لإعلانك” الحالي الذي يتطلب من المرشحين الكشف عن استخدام المحتوى الناتج عن الذكاء الاصطناعي.
وقال سيجل: “على سبيل المثال، لقد وافقت على هذه الرسالة، وهي تحتوي على محتوى تم إنشاؤه بواسطة الذكاء الاصطناعي”.
وبدون ذلك، قال سيجل إن قيمة قاعدة جوجل من المرجح أن تكون “ضئيلة”.
“تبدو قيمة الكشف بالنسبة للمشاهد ضئيلة باستثناء ربما في الحالات التوضيحية حيث قد يعتبرها شخص ما حقيقة قاسية.” هو قال. “يبقى أن نرى ما إذا كانت الحملات تستخدم المعرف لتقليل استخدامه أو استخدامه بشكل أكبر لإنشاء المزيد من الإعلانات المضللة. ويمكنهم القيام بالأمر الأخير والادعاء بأنه تم تحديده على أنه تم إنشاؤه بواسطة الذكاء الاصطناعي، لذا فلا بأس.”