لفترة وجيزة الشهر الماضي ، انتشرت على وسائل التواصل الاجتماعي صورة يُزعم أنها تظهر انفجارًا بالقرب من البنتاغون ، مما تسبب في حالة من الذعر وبيع السوق. الصورة ، التي كانت تحمل جميع السمات المميزة لتوليدها بواسطة الذكاء الاصطناعي ، تم فضحها لاحقًا من قبل السلطات.
ولكن وفقًا لجيفري ماكجريجور ، الرئيس التنفيذي لشركة تروبيك ، فإن هذا “يمثل حقًا قمة جبل الجليد لما سيأتي”. على حد تعبيره ، “سنرى المزيد من المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي يبدأ في الظهور على وسائل التواصل الاجتماعي ، ونحن لسنا مستعدين لذلك.”
تعمل شركة ماكجريجور على معالجة هذه المشكلة. تقدم Truepic تقنية تدعي مصادقة الوسائط عند نقطة الإنشاء من خلال عدسة Truepic. يلتقط التطبيق البيانات بما في ذلك التاريخ والوقت والموقع والجهاز المستخدم لإنشاء الصورة ، ويطبق توقيعًا رقميًا للتحقق مما إذا كانت الصورة عضوية ، أو إذا تم التلاعب بها أو إنشاؤها بواسطة AI.
تأسست Truepic ، المدعومة من Microsoft ، في عام 2015 ، قبل سنوات من إطلاق أدوات إنشاء الصور التي تعمل بالذكاء الاصطناعي مثل Dall-E و Midjourney. يقول ماكجريجور الآن إن الشركة ترى اهتمامًا من “أي شخص يتخذ قرارًا بناءً على صورة” ، من المنظمات غير الحكومية إلى شركات الإعلام إلى شركات التأمين التي تتطلع إلى تأكيد صحة المطالبة.
قال مكجريجور: “عندما يمكن تزوير أي شيء ، يمكن أن يكون كل شيء مزيفًا”. “مع العلم أن الذكاء الاصطناعي التوليدي قد وصل إلى نقطة التحول هذه في الجودة وإمكانية الوصول ، لم نعد نعرف ما هو الواقع عندما نكون على الإنترنت.”
تعمل شركات التكنولوجيا مثل Truepic على مكافحة التضليل عبر الإنترنت لسنوات ، لكن ظهور مجموعة جديدة من أدوات الذكاء الاصطناعي التي يمكنها بسرعة إنشاء صور مقنعة وعمل مكتوب استجابة لمطالبات المستخدم قد أضاف إلحاحًا جديدًا لهذه الجهود. في الأشهر الأخيرة ، انتشرت على نطاق واسع صورة تم إنشاؤها بواسطة الذكاء الاصطناعي للبابا فرانسيس وهو يرتدي سترة منفوخة ، وانتشرت على نطاق واسع الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي لإلقاء القبض على الرئيس السابق دونالد ترامب ، قبل وقت قصير من توجيه الاتهام إليه.
يطالب بعض المشرعين الآن شركات التكنولوجيا بمعالجة المشكلة. دعت فيرا جوروفا ، نائبة رئيس المفوضية الأوروبية ، يوم الاثنين الموقعين على مدونة الاتحاد الأوروبي لقواعد الممارسة بشأن المعلومات المضللة – وهي قائمة تتضمن Google و Meta و Microsoft و TikTok – إلى “وضع تقنية للتعرف على هذا المحتوى وتسميته بوضوح. للمستخدمين “.
يحاول عدد متزايد من الشركات الناشئة وشركات التكنولوجيا الكبرى ، بما في ذلك بعض الشركات التي تنشر تقنية الذكاء الاصطناعي التوليدية في منتجاتها ، تنفيذ معايير وحلول لمساعدة الأشخاص على تحديد ما إذا كانت الصورة أو الفيديو مصنوعًا باستخدام الذكاء الاصطناعي. تحمل بعض هذه الشركات أسماء مثل Reality Defender ، والتي تتحدث عن المخاطر المحتملة للجهود: حماية إحساسنا بما هو حقيقي وما هو غير حقيقي.
ولكن مع تطور تقنية الذكاء الاصطناعي بشكل أسرع مما يستطيع البشر مواكبة التطور ، فمن غير الواضح ما إذا كانت هذه الحلول التقنية ستكون قادرة على معالجة المشكلة بالكامل. حتى أوبن إيه آي ، الشركة التي تقف وراء Dall-E و ChatGPT ، اعترفت في وقت سابق من هذا العام بأن جهودها الخاصة للمساعدة في الكشف عن الكتابة التي تم إنشاؤها بواسطة الذكاء الاصطناعي ، بدلاً من الصور ، “غير كاملة” ، وحذرت من أنه يجب “أخذها بعين الاعتبار. ”
قال هاني فريد ، خبير الطب الشرعي الرقمي والأستاذ في جامعة كاليفورنيا ، بيركلي ، لشبكة CNN: “هذا يتعلق بالتخفيف ، وليس الإزالة”. “لا أعتقد أنها قضية خاسرة ، لكنني أعتقد أن هناك الكثير الذي يجب القيام به.”
قال فريد: “الأمل” هو الوصول إلى نقطة “حيث لا يستطيع أحد المراهقين في قبو والديه تكوين صورة والتأرجح في الانتخابات أو تحريك السوق بمقدار نصف تريليون دولار”.
تتخذ الشركات نهجين على نطاق واسع لمعالجة هذه المشكلة.
يعتمد أحد الأساليب على تطوير برامج لتحديد الصور على أنها تم إنشاؤها بواسطة الذكاء الاصطناعي بعد إنتاجها ومشاركتها عبر الإنترنت ؛ يركز الآخر على تمييز الصورة على أنها حقيقية أو تم إنشاؤها بواسطة الذكاء الاصطناعي عند تصورها بنوع من التوقيع الرقمي.
يعمل Reality Defender و Hive Moderation على الأول. باستخدام منصاتهم ، يمكن للمستخدمين تحميل الصور الموجودة ليتم مسحها ضوئيًا ثم الحصول على تحليل فوري مع نسبة تشير إلى احتمال ما إذا كانت حقيقية أو تم إنشاؤها بواسطة الذكاء الاصطناعي بناءً على كمية كبيرة من البيانات.
يقول Reality Defender ، الذي تم إطلاقه قبل أن يصبح “الذكاء الاصطناعي التوليدي” كلمة رنانة وكان جزءًا من مسرّع التكنولوجيا في Silicon Valley التنافسي Y Combinator ، إنه يستخدم “تقنية الملكية الخاصة ببصمة المحتوى التزييف العميق والمحتوى التوليدي” لاكتشاف مقاطع الفيديو والصوت والصور التي يتم إنشاؤها بواسطة الذكاء الاصطناعي.
في مثال قدمته الشركة ، يسلط Reality Defender الضوء على صورة Tom Cruise deepfake باعتبارها “مشبوهة” بنسبة 53٪ ، حيث يخبر المستخدم أنه عثر على دليل يظهر أن الوجه كان مشوهًا ، “وهو أمر شائع للتلاعب بالصورة”.
قد يكون الدفاع عن الواقع عملاً مربحًا إذا أصبحت المشكلة مصدر قلق متكرر للشركات والأفراد. تقدم هذه الخدمات عروض تجريبية مجانية محدودة بالإضافة إلى مستويات مدفوعة. قالت Hive Moderation إنها تتقاضى 1.50 دولارًا لكل 1000 صورة بالإضافة إلى “صفقات العقد السنوية” التي تقدم خصمًا. قالت Realty Defender إن أسعارها قد تختلف بناءً على عوامل مختلفة ، بما في ذلك ما إذا كان العميل بحاجة إلى “أي عوامل مخصصة تتطلب خبرة فريقنا ومساعدته”.
قال بن كولمان ، الرئيس التنفيذي لشركة Reality Defender ، لشبكة CNN: “الخطر يتضاعف كل شهر”. “يمكن لأي شخص أن يفعل هذا. لست بحاجة إلى دكتوراه في علوم الكمبيوتر. لا تحتاج إلى تدوير الخوادم على Amazon. لا تحتاج إلى معرفة كيفية كتابة برامج الفدية. يمكن لأي شخص القيام بذلك فقط عن طريق البحث عن “منشئ الوجه المزيف” على Google “.
وصف كيفن جو ، الرئيس التنفيذي لشركة Hive Moderation ، بأنه “سباق تسلح”.
قال جو لشبكة CNN: “علينا أن نستمر في النظر إلى جميع الطرق الجديدة التي يستخدمها الأشخاص لإنشاء هذا المحتوى ، وعلينا فهمه وإضافته إلى مجموعة البيانات الخاصة بنا لتصنيف المستقبل”. “اليوم هو بالتأكيد نسبة صغيرة من المحتوى يتم إنشاؤه بواسطة الذكاء الاصطناعي ، لكنني أعتقد أن هذا سيتغير خلال السنوات القليلة المقبلة.”
في نهج وقائي مختلف ، تعمل بعض شركات التكنولوجيا الكبرى على دمج نوع من العلامات المائية في الصور للمصادقة على الوسائط على أنها حقيقية أو تم إنشاؤها بواسطة الذكاء الاصطناعي عند إنشائها لأول مرة. كان الدافع وراء هذا الجهد إلى حد كبير حتى الآن هو التحالف من أجل إنشاء المحتوى والمصداقية ، أو C2PA.
تم تأسيس C2PA في عام 2021 لإنشاء معيار تقني يصادق على مصدر وتاريخ الوسائط الرقمية. فهو يجمع بين جهود Adobe التي تقودها مبادرة أصالة المحتوى (CAI) و Project Origin ، وهي مبادرة تقودها Microsoft و BBC وتركز على مكافحة المعلومات المضللة في الأخبار الرقمية. الشركات الأخرى المشاركة في C2PA تشمل Truepic و Intel و Sony.
استنادًا إلى إرشادات C2PA ، يقوم CAI بإنشاء أدوات مفتوحة المصدر للشركات لإنشاء بيانات اعتماد المحتوى ، أو البيانات الوصفية التي تحتوي على معلومات حول الصورة. هذا “يسمح للمبدعين بمشاركة تفاصيل كيفية إنشاء الصورة بشفافية” ، وفقًا لموقع CAI على الويب. “بهذه الطريقة ، يمكن للمستخدم النهائي الوصول إلى سياق حول من وماذا وكيف تم تغيير الصورة – ثم يحكم بنفسه على مدى صحة هذه الصورة.”
“Adobe ليس لديها مركز عائدات حول هذا الموضوع. قال آندي بارسونز ، المدير الأول في CAI لشبكة CNN ، “إننا نفعل ذلك لأننا نعتقد أن هذا يجب أن يكون موجودًا”. “نعتقد أنه إجراء مضاد تأسيسي مهم للغاية ضد المعلومات الخاطئة والمضللة.”
تعمل العديد من الشركات بالفعل على دمج معيار C2PA وأدوات CAI في تطبيقاتها. تتبع Adobe’s Firefly ، وهي أداة لتوليد الصور بالذكاء الاصطناعي تمت إضافتها مؤخرًا إلى Photoshop ، المعيار من خلال ميزة Content Credentials. أعلنت Microsoft أيضًا أن فن AI الذي تم إنشاؤه بواسطة Bing Image Creator و Microsoft Designer سيحمل توقيعًا مشفرًا في الأشهر المقبلة.
يبدو أن شركات التكنولوجيا الأخرى مثل Google تسعى إلى اتباع دليل يسحب قليلاً من كلا النهجين.
في مايو ، أعلنت Google عن أداة تسمى About this image ، تقدم للمستخدمين القدرة على معرفة متى تم فهرسة الصور الموجودة على موقعها في الأصل بواسطة Google ، حيث ربما ظهرت الصور لأول مرة وأين يمكن العثور عليها عبر الإنترنت. أعلنت شركة التكنولوجيا أيضًا أن كل صورة تم إنشاؤها بواسطة الذكاء الاصطناعي (AI) تم إنشاؤها بواسطة Google ستحمل ترميزًا في الملف الأصلي “لإعطاء سياق” إذا تم العثور على الصورة على موقع ويب أو نظام أساسي آخر.
بينما تحاول شركات التكنولوجيا معالجة المخاوف بشأن الصور التي تم إنشاؤها بواسطة AI وسلامة الوسائط الرقمية ، يؤكد الخبراء في هذا المجال أن هذه الشركات ستحتاج في النهاية إلى العمل مع بعضها البعض ومع الحكومة لمعالجة المشكلة.
قال فريد: “سنحتاج إلى تعاون من Twitter في العالم ومن Facebooks في العالم حتى يبدأوا في التعامل مع هذه الأشياء بجدية أكبر ، والتوقف عن الترويج للأشياء المزيفة والبدء في الترويج للأشياء الحقيقية”. هناك جزء تنظيمي لم نتحدث عنه. هناك جزء تعليمي لم نتحدث عنه “.
وافق بارسونز. وقال: “هذه ليست شركة واحدة أو حكومة واحدة أو فردًا واحدًا في الأوساط الأكاديمية يمكنه جعل هذا ممكنًا”. “نحن بحاجة إلى مشاركة الجميع.”
ومع ذلك ، في الوقت الحالي ، تواصل شركات التكنولوجيا المضي قدمًا في دفع المزيد من أدوات الذكاء الاصطناعي إلى العالم.