أعلنت شركة Meta المالكة لفيسبوك عن تغييرات كبيرة في سياساتها بشأن الوسائط التي تم إنشاؤها وتغييرها رقميًا يوم الجمعة، قبل الانتخابات التي تستعد لاختبار قدرتها على مراقبة المحتوى المخادع الناتج عن تقنيات الذكاء الاصطناعي الجديدة.
ستبدأ شركة وسائل التواصل الاجتماعي العملاقة التابعة لمارك زوكربيرج في تطبيق تسميات “Made with AI” في مايو على مقاطع الفيديو والصور والتسجيلات الصوتية التي يتم إنشاؤها بواسطة الذكاء الاصطناعي المنشورة على منصاتها، مما يؤدي إلى توسيع السياسة التي كانت تتناول في السابق شريحة ضيقة فقط من مقاطع الفيديو التي تم التلاعب بها، نائب رئيس سياسة المحتوى مونيكا. قال بيكيرت في منشور بالمدونة.
وقال بيكرت إن ميتا ستطبق أيضًا تسميات منفصلة وأكثر بروزًا على الوسائط المعدلة رقميًا والتي تشكل “خطرًا كبيرًا بشكل خاص لخداع الجمهور ماديًا بشأن مسألة ذات أهمية”، بغض النظر عما إذا كان المحتوى قد تم إنشاؤه باستخدام الذكاء الاصطناعي أو أدوات أخرى.
سيؤدي النهج الجديد إلى تغيير طريقة تعامل الشركة مع المحتوى الذي تم التلاعب به.
سيتم الانتقال من التركيز على إزالة مجموعة محدودة من المنشورات إلى التركيز على الحفاظ على المحتوى مع تزويد المشاهدين بمعلومات حول كيفية إنشائه.
أعلنت شركة Meta سابقًا عن مخطط لاكتشاف الصور التي تم التقاطها باستخدام أدوات الذكاء الاصطناعي التوليدية الخاصة بشركات أخرى باستخدام علامات غير مرئية مدمجة في الملفات، لكنها لم تحدد تاريخ البدء في ذلك الوقت.
وقال متحدث باسم الشركة لرويترز إن نهج التصنيف الجديد سينطبق على المحتوى المنشور على خدمات Meta's Facebook وInstagram وThreads.
وتخضع خدماتها الأخرى، بما في ذلك سماعات الواقع الافتراضي WhatsApp وQuest، لقواعد مختلفة.
وقال المتحدث إن ميتا ستبدأ في تطبيق التصنيفات الأكثر بروزًا “عالية المخاطر” على الفور.
وتأتي هذه التغييرات قبل أشهر من الانتخابات الرئاسية في نوفمبر/تشرين الثاني، والتي يحذر باحثون في مجال التكنولوجيا من أنها قد تتغير من خلال تقنيات الذكاء الاصطناعي الجديدة.
بدأت الحملات السياسية بالفعل في نشر أدوات الذكاء الاصطناعي في أماكن مثل إندونيسيا، مما أدى إلى تجاوز حدود المبادئ التوجيهية الصادرة عن مقدمي الخدمات مثل Meta وشركة OpenAI الرائدة في سوق الذكاء الاصطناعي.
وفي فبراير/شباط، وصف مجلس الرقابة في شركة ميتا القواعد الحالية للشركة بشأن وسائل الإعلام التي تم التلاعب بها بأنها “غير متماسكة” بعد مراجعة مقطع فيديو للرئيس بايدن نُشر على فيسبوك العام الماضي والذي غير اللقطات الحقيقية ليشير بشكل خاطئ إلى أنه تصرف بشكل غير لائق.
سُمح للقطات بالبقاء حاضرة، حيث تحظر سياسة “الوسائط التي تم التلاعب بها” الحالية في شركة Meta تغيير مقاطع الفيديو بشكل مضلل فقط إذا تم إنتاجها بواسطة الذكاء الاصطناعي أو إذا جعلت الناس يبدون وكأنهم يقولون كلمات لم يقولوها أبدًا.
وقال مجلس الإدارة إن السياسة يجب أن تنطبق أيضًا على المحتوى غير المرتبط بالذكاء الاصطناعي، والذي “ليس بالضرورة أقل تضليلًا” من المحتوى الناتج عن الذكاء الاصطناعي، بالإضافة إلى المحتوى الصوتي فقط ومقاطع الفيديو التي تصور أشخاصًا يفعلون أشياء لم يفعلوها في الواقع.