استفسرت المفوضية الأوروبية رسميًا عن الاستراتيجيات التي تبنتها شركات التكنولوجيا الكبرى في 14 مارس للتخفيف من مخاطر الذكاء الاصطناعي التوليدي القادرة على تضليل الناخبين في الانتخابات. ومنحت اللجنة شركات التكنولوجيا الكبرى موعدًا نهائيًا في 3 أبريل لتقديم المستندات والمعلومات لطلباتها.
وأصدرت المفوضية الأوروبية الطلب الرسمي لشركات التكنولوجيا الكبرى بما في ذلك Facebook وInstagram وX (Twitter سابقًا) وTikTok وGoogle Search وBing وSnapchat وYouTube.
المفوضية الأوروبية تستجوب شركات التكنولوجيا الكبرى بشأن مخاطر الذكاء الاصطناعي التوليدي
وفقًا لبلومبرج، تم نقل ذلك في طلب رسمي للحصول على معلومات (RFI).
طلبت اللجنة من الشركات تقديم مزيد من المعلومات حول المخاطر التي يشكلها الذكاء الاصطناعي التوليدي.
وذلك لأن شركات التكنولوجيا الكبرى تسمح للمستخدمين بإنشاء المحتوى ونشره باستخدام التكنولوجيا.
يشعر الاتحاد الأوروبي بقلق بالغ بشأن الاحتياطات اللازمة للتخفيف من مخاطر الذكاء الاصطناعي التوليدي على ناخبي الانتخابات، معتقدًا أن انتشار التزييف العميق الفيروسي والتلاعب الآلي بالخدمة يمكن أن يؤثر على تصورات الناخبين.
يوجد الآن تشريع مقترح يطلب من شركات الذكاء الاصطناعي مشاركة تفاصيل بيانات التدريب الخاصة بها في الولايات المتحدة والاتحاد الأوروبي والمملكة المتحدة. إنها ليست مثالية، لكنها خطوة قوية في الاتجاه الصحيح.
الولايات المتحدة: https://t.co/uBirDixCZi
الاتحاد الأوروبي: https://t.co/o0DZ9mxCYY
المملكة المتحدة:…
– إد نيوتن ريكس (@ednewtonrex) 12 مارس 2024
بعد طلبات المعلومات، تتمتع المفوضية الأوروبية بسلطة فرض عقوبات على الأخطاء أو التناقضات أو التحريف.
يتبع هذا القرار لوائح التجارة الإلكترونية والحوكمة عبر الإنترنت الأخيرة للاتحاد الأوروبي – قانون الخدمات الرقمية (DSA).
صنف هذا القانون ثماني منصات على أنها منصات إلكترونية كبيرة جدًا (VLOPs). وفي ضوء ذلك، فقد كلفت VLOPs بتقييم وإدارة المخاطر النظامية بالإضافة إلى اتباع المبادئ التوجيهية الأخرى المحددة.
وفي الوقت نفسه، يعد أمن الانتخابات مجالًا آخر من مجالات الاهتمام التي تبحثها اللجنة في سعيها للحصول على إجابات لتأثير الذكاء الاصطناعي التوليدي على العمليات الانتخابية.
وتشمل المخاوف الأخرى العنف القائم على النوع الاجتماعي، وتوزيع المحتوى غير المشروع، والدفاع عن الحقوق الأساسية، والقصر، وكذلك الصحة العقلية.
الاتحاد الأوروبي يتحرك نحو قواعد أمن الانتخابات
وكانت المفوضية الأوروبية تبحث بنشاط في تأثير الذكاء الاصطناعي على الناخبين، حتى مع زيادة استخدام الذكاء الاصطناعي في جميع المجالات.
أظهرت دراسة حديثة قدرة الذكاء الاصطناعي على نشر المعلومات الخاطئة بين الناخبين، على سبيل المثال.
ويقوم الاتحاد الأوروبي بالفعل بالعد التنازلي حتى 27 مارس/آذار لوضع اللمسات الأخيرة على لوائح أمن الانتخابات. وقد طلبت الهيئة الأوروبية تعليقات بشأن قوانين أمن الانتخابات، بما في ذلك من خلال المشاورات العامة.
يعتبر طلب المعلومات الأخير هذا المقدم إلى شركات التكنولوجيا الكبرى طلبًا حاسمًا من شأنه أن يساعد في إنشاء سياسة أمن الانتخابات في الاتحاد الأوروبي.
وبمجرد إنشائها، ستساعد هذه السياسة في مكافحة التحديات الأمنية الانتخابية العالقة ــ بما في ذلك المعلومات المضللة بين الناخبين.