ومع انتشار “كل العيون على رفح”، نشر شايان سارداريزاده، الصحفي في بي بي سي تحقق، على موقع X أنها “أصبحت الآن الصورة الأكثر انتشارًا التي تم إنشاؤها بواسطة الذكاء الاصطناعي التي رأيتها على الإطلاق”. ومن المثير للسخرية إذن أن كل تلك العيون على رفح لا ترى رفح على الإطلاق.
لقد أصبح تحديد دور الذكاء الاصطناعي في عملية نشر الأخبار أمرًا محفوفًا بالمخاطر بسرعة. كما أشارت شبكة NBC News هذا الأسبوع، فقد بذلت شركة Meta جهودًا لتقييد المحتوى السياسي على منصاتها حتى عندما أصبح Instagram “منفذًا حاسمًا للصحفيين الفلسطينيين”. والنتيجة هي أن اللقطات الفعلية من رفح قد يتم تقييدها باعتبارها “محتوى رسوميًا أو عنيفًا” بينما يمكن لصورة الخيام التي يتم التقاطها بواسطة الذكاء الاصطناعي أن تنتشر على نطاق واسع. قد يرغب الناس في رؤية ما يحدث على الأرض في غزة، لكنه مجرد رسم توضيحي للذكاء الاصطناعي يُسمح له بالعثور على طريقه إلى خلاصاتهم. انها مدمرة.
وفي الوقت نفسه، يجلس الصحفيون في وضع يسمح لهم بإدخال عملهم في نماذج اللغات الكبيرة. يوم الأربعاء، أفاد موقع Axios أن Vox Media وThe Atlantic أبرمتا صفقات مع OpenAI من شأنها أن تسمح لصانع ChatGPT باستخدام المحتوى الخاص بهما لتدريب نماذج الذكاء الاصطناعي الخاصة به. في كتابته في مجلة The Atlantic نفسها، وصفها دامون بيريس بأنها “صفقة الشيطان”، مشيرًا إلى حقوق الطبع والنشر والمعارك الأخلاقية التي يخوضها الذكاء الاصطناعي حاليًا، وأشار إلى أن التكنولوجيا “لم تبدو تمامًا وكأنها صديقة لصناعة الأخبار” – وهو تصريح قد يكون في أحد الأيام يجد نفسه طريقه إلى ذاكرة برنامج الدردشة الآلي. امنح الأمر بضع سنوات، وستجد أن الكثير من المعلومات المتاحة – معظم ما “يراه” الناس – لن يأتي من روايات الشهود أو نتيجة لنظر الإنسان إلى الأدلة وتطبيق التفكير النقدي. وستكون نسخة طبق الأصل مما أبلغوا عنه، معروضة بالطريقة التي تراها مناسبة.
ومن المسلم به أن هذا أمر جذري. وكما أشار بيريس، “قد يتبين أن الذكاء الاصطناعي التوليدي أمر جيد”، ولكن هناك مجال للقلق. نشرت مجلة WIRED يوم الخميس تقريرًا ضخمًا يبحث في كيفية استخدام الذكاء الاصطناعي التوليدي في الانتخابات حول العالم. لقد سلط الضوء على كل شيء بدءًا من الصور المزيفة لدونالد ترامب مع الناخبين السود وحتى المكالمات الآلية العميقة من الرئيس بايدن. سيتم تحديثه على مدار العام، وأعتقد أنه سيكون من الصعب مواكبة كل المعلومات الخاطئة التي تأتي من مولدات الذكاء الاصطناعي. ربما تكون إحدى الصور قد وضعت العين على رفح، لكنها يمكن أن تضع العين بسهولة على شيء كاذب أو مضلل. يمكن للذكاء الاصطناعي أن يتعلم من البشر، لكنه لا يستطيع، كما فعل أوت، إنقاذ الناس من الأشياء التي يفعلونها ببعضهم البعض.
خيوط فضفاضة
البحث مشدود. مثل شرير بوند الغبي، هددت الخوارزمية مستخدمي الإنترنت لسنوات. أنت تعرف ما أتحدث عنه: النظام الغامض الذي يحدد منشور X أو Instagram Reel أو TikTok الذي يجب أن تراه بعد ذلك. ومع ذلك، فقد سلط انتشار إحدى هذه الخوارزميات الضوء بالفعل هذا الأسبوع: جوجل. بعد بضعة أيام صعبة تعرضت خلالها “نظرات عامة حول الذكاء الاصطناعي” الخاصة بعملاق البحث لانتقادات شديدة على وسائل التواصل الاجتماعي لأنها طلبت من الناس وضع الغراء على البيتزا وتناول الحجارة (ليس في نفس الوقت)، سارعت الشركة إلى إزالة النتائج السيئة. لقد كتبت زميلتي لورين جود بالفعل عن الطرق التي يتغير بها البحث – والنتائج التي يقدمها – كما نعلم. لكني أود أن أقدم حجة مختلفة: البحث مجرد نوع من الإخفاق. يبدو أن كل استعلام هذه الأيام يستدعي برنامج دردشة لا أحد يرغب في التحدث إليه، وشخصيًا، أمضيت الجزء الأفضل من الأسبوع محاولًا العثور على طرق جديدة للبحث من شأنها أن تظهر ما كنت أبحث عنه بالفعل، بدلاً من البحث عن طرق جديدة للبحث. ملخص. أوه، ثم كان هناك تسريب لـ 2500 وثيقة متعلقة بالبحث.
محتوى تيك توك
يمكن أيضًا عرض هذا المحتوى على الموقع الذي نشأ منه.