ابق على اطلاع بالتحديثات المجانية
ببساطة قم بالتسجيل في الذكاء الاصطناعي myFT Digest – يتم تسليمه مباشرة إلى صندوق الوارد الخاص بك.
تعهدت أكبر شركات التكنولوجيا في العالم بمحاربة المحتوى “المخادع” الناتج عن الذكاء الاصطناعي والذي يتدخل في الانتخابات العالمية هذا العام، مع تزايد المخاوف بشأن تأثير المعلومات المضللة على الديمقراطية.
كانت أمازون وجوجل وميتا ومايكروسوفت وتيك توك وأوبن إيه آي من بين 20 شركة تقنية قالت يوم الجمعة خلال مؤتمر ميونيخ للأمن إنها ستعمل معًا لمكافحة إنشاء ونشر المحتوى المصمم لتضليل الناخبين، مثل الصور ومقاطع الفيديو “المزيفة بعمق” والصوت.
ووفقاً للاتفاق الطوعي الذي وقعته الشركات، فإن التطور السريع للذكاء الاصطناعي “يخلق فرصاً جديدة وتحديات للعملية الديمقراطية”، كما أن انتشار المحتوى المخادع يمكن أن “يعرض نزاهة العمليات الانتخابية للخطر”.
وقال نيك كليج، رئيس الشؤون العالمية في Meta: “مع إجراء العديد من الانتخابات الكبرى هذا العام، من المهم أن نفعل ما في وسعنا لمنع خداع الناس بالمحتوى الناتج عن الذكاء الاصطناعي”. “هذا العمل أكبر من أي شركة واحدة وسيتطلب جهدًا كبيرًا عبر الصناعة والحكومة والمجتمع المدني.”
وأضاف براد سميث، نائب رئيس مجلس الإدارة ورئيس شركة مايكروسوفت، أن الشركات لديها “مسؤولية المساعدة في ضمان عدم استخدام هذه الأدوات كسلاح في الانتخابات”.
ويأتي الاتفاق في سياق المخاوف المتصاعدة بين المشرعين والخبراء بشأن احتمالية تعريض الذكاء الاصطناعي التوليدي للانتخابات رفيعة المستوى المقرر إجراؤها هذا العام، بما في ذلك في الولايات المتحدة والمملكة المتحدة والهند.
واجهت شركات التكنولوجيا التي تدير منصات التواصل الاجتماعي الكبرى مثل Facebook وX وTikTok، تدقيقًا لسنوات حول وجود محتوى ضار على مواقعها وكيفية معالجتها.
لكن الاهتمام المتزايد بأدوات الذكاء الاصطناعي التوليدية وتوافرها أدى إلى إثارة المخاوف بشأن الكيفية التي قد تؤدي بها التكنولوجيا إلى تقويض الانتخابات على وجه الخصوص.
في يناير/كانون الثاني، أُرسلت مكالمة آلية إلى الناخبين الأمريكيين في نيو هامبشاير يُزعم أنها من الرئيس جو بايدن تدعوهم إلى عدم التصويت في الانتخابات التمهيدية. وفي العام الماضي، تم العثور على مقاطع مزيفة لسياسيين يُزعم أنها تم إنشاؤها باستخدام الذكاء الاصطناعي ثم انتشرت عبر الإنترنت في المملكة المتحدة والهند ونيجيريا والسودان وإثيوبيا وسلوفاكيا.
وقالت شركات التكنولوجيا العشرين التي وقعت اتفاق يوم الجمعة إنها ستعمل “بشكل تعاوني” على أدوات للقضاء على انتشار محتوى الذكاء الاصطناعي الضار المرتبط بالانتخابات على منصاتها، وستتخذ إجراءات “سريعة ومتناسبة”.
ويمكن أن تشمل الجهود إضافة علامات مائية إلى الصور التي توضح مصدرها وما إذا كانت قد تم تغييرها، على سبيل المثال.
وتعهدت الشركات أيضًا بالشفافية بشأن كيفية تعاملها مع مثل هذا المحتوى المخادع، وقالت إنها ستقيم نماذج الذكاء الاصطناعي التوليدية الخاصة بها – مثل تلك التي تقف وراء برنامج الدردشة الآلي ChatGPT التابع لشركة OpenAI – لفهم المخاطر المتعلقة بالانتخابات التي قد تشكلها بشكل أفضل.
تعد الاتفاقية الأحدث في سلسلة من الالتزامات الطوعية حول الذكاء الاصطناعي التي تعهدت بها شركات التكنولوجيا الكبرى في الأشهر الأخيرة. في العام الماضي، وافقت المجموعات بما في ذلك OpenAI وGoogle DeepMind وMeta على فتح نماذج الذكاء الاصطناعي التوليدية الخاصة بها للمراجعة من قبل معهد سلامة الذكاء الاصطناعي البريطاني.
هذا الشهر، كجزء من مبادرة الصناعة للانضمام إلى التحالف من أجل مصدر المحتوى والأصالة، قالت جوجل إنها “تستكشف بنشاط” ما إذا كان يمكنها طرح أدوات العلامات المائية التي توضح كيفية إنشاء الصورة.
وقالت ميتا أيضًا في فبراير إنها ستبدأ في تصنيف الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي والتي ينشرها المستخدمون على فيسبوك وإنستجرام وثريدس “في الأشهر المقبلة”.