خلال حدث I / O الكبير الذي نظمته Google للمطورين – وهو استعراض ممتد ومتألق لعضلات الذكاء الاصطناعي الجديدة للشركة – تحدث أحد المتحدثين الرئيسيين عن المخاطر التي يشكلها “الفاعلون السيئون”.
جاءت العبارة ، في سياق حدث متفائل بوعي ذاتي ، مع توازن التهديد الحقيقي والمجرّد. كان هناك ما يكفي من الخطر في استخدام مصطلح الممثل السيئ لطمأنة الجمهور بأن العقول البشرية لشركة Google قد نظرت على النحو الواجب في مخاطر انتشار الذكاء الاصطناعي بسرعة كبيرة إلى ما وراء نقطة السيطرة الواقعية ، ولكن دون تحديد كافٍ بشأن التهديدات لتهدئة روح الحزب.
إن تعميم الذكاء الاصطناعي التوليدي قد يضع بالفعل أسلحة مؤذية أكثر قوة في أيدي الفنانين المحتالين وتجار المعلومات المضللة وغيرهم من الجهات الفاعلة السيئة بشكل لا لبس فيه. نحن محقون في الخوف من ذلك ، وقد كانت Google محقة في الانقطاع ، كما فعلت ، والاعتراف بالتوتر الموجود الآن في شركة بهذه الأهمية بين ما يمكنها وما يجب أن تطلقه في السوق.
لكن نغمة Google جعلت الأمر يبدو ، على الأقل في الوقت الحالي ، أن الشركة ستستمر على أساس أنه يمكن الوثوق بالناس العاديين مع الكثير من الذكاء الاصطناعي التوليدي. على الرغم من ذلك ، قد يكون التقليل من شأن الشرير الدنيوي للممثل السيئ: أولئك الذين لا يبحثون بنشاط عن الإمكانات المظلمة للتكنولوجيا ، لكنهم بالتأكيد سيستخدمونها إذا كانت جالسة هناك جاهزة للاستغلال.
تكمن المشكلة في أنه مع ظهور كل عرض من عروض الذكاء الاصطناعي الجديدة من Google على الشاشات ، بدت المخاطر أقل تجريدًا وأكثر واقعية. حقيقة أن Google و Microsoft وغيرهم من عمالقة التكنولوجيا يجعلون ساحة معركة بين المستهلكين والمؤسسات للذكاء الاصطناعي تعني أن المنافسة التجارية قد تم توجيهها الآن وتحريرها للقيام بما تفعله على أفضل وجه: ضع كل ما هو ممكن قانونيًا في أيدينا بأسرع ما يمكن. بقدر الإمكان. هذا يعني أن الأدوات المطلوبة لتكون ممثلًا غير رسمي (ولكن أيضًا فعال للغاية) ستكون متاحة أكثر من أي وقت مضى.
كانت هناك لحظتان بارزتان. في إحداها ، أظهر المسؤولون التنفيذيون في Google برنامج ترجمة مدعومًا بالذكاء الاصطناعي كان يختبرونه حاليًا والذي – من خلال اعتراف الشركة الخاص – يبدو إلى حد كبير وكأنه مولد قوي للغاية وسهل الاستخدام للقطات المزيفة. اعترف رئيس قسم Google بذلك ، ووصف الحاجة إلى حواجز الحماية والعلامات المائية وغيرها من تدابير السلامة التي قد يصعب في الواقع فرضها.
يتم تشغيل مقطع فيديو لمتحدث يتحدث بلغة واحدة ؛ يتم نسخ كلماتهم وترجمتها وإعادتها بواسطة الذكاء الاصطناعي كصوت بلغة أخرى. يتم ضبط نغمة وإضاءة الصوت المترجم لتقليد المتحدث عن كثب ثم يقوم البرنامج بإعادة دبلجة ذلك على الفيديو الأصلي. بشكل مخيف – وإن لم يكن بشكل كامل – يقوم الذكاء الاصطناعي بعد ذلك بمعالجة الأشرطة بحيث تتم مزامنة الكلمات الجديدة مع شفاه المتحدث. أشياء رائعة – ولكن ليس من الصعب أيضًا تخيل كيف أن القدرة على جعل الناس يبدون بسرعة كبيرة كما لو كانوا يقولون شيئًا لم يفعلوه أبدًا يمكن أن تكون مفيدة لكل من الممثلين السيئين والسيئين.
في عرض توضيحي آخر ، عرض المسؤولون التنفيذيون في Google برنامج Magic Editor المدعوم بالذكاء الاصطناعي الخاص بالشركة – وهو في الأساس أداة سريعة جدًا وسهلة الاستخدام من نوع Photoshop تبدو كما لو أنها ستسمح حتى لأصحاب التقنية غير المتخصصين بتغيير الصور ومن خلال تغيير التاريخ ضمنيًا لحدث أو لقاء مع بضع ضربات من الإصبع.
كان سيناريو الشركة حتمًا لطيفًا ، وبدأ بصورة لسائح أمام شلال. ذكريات سعيدة ولكن – عفوا! – حزام حقيبة يد بارز تفضل محوه. جاب! اختفى على الفور. تمنت لو كان الطقس أفضل في تلك الرحلة. جاب! لم تعد السماء ملبدة بالغيوم الجرانيتية بل كانت زرقاء رائعة. لو كانت أقرب إلى الشلال وذراعها بزاوية مختلفة. جاب! لقد انتقلت.
لا يمكن لأحد أن يحسد هذا السائح النظري على حقه في إعادة كتابة الواقع قليلاً. لكن الاستخدامات التي يمكن للممثل السيئ أن يضع كل هذا في ضوء مشكوك فيه. لن يرى الجميع على الفور كيف يمكنهم الاستفادة من هذه القوى الفورية للتلاعب بأثر رجعي للسجل المرئي ، ولكن مجرد امتلاك هذه القدرة في جيبك سيجعل عددًا كبيرًا جدًا من الأشخاص فضوليين.
منذ إطلاق ChatGPT ، لم يكن لدى Google وغيرها من الخيارات سوى المشاركة في هذا الصدام التجريبي الثلاثي المبكر بين البشرية والذكاء الاصطناعي والشركات التي تبلغ قيمتها تريليون دولار. قال رئيسها التنفيذي سوندار بيتشاي الأسبوع الماضي إن المبدأ التوجيهي لجوجل في هذا الصدد سيكون موقفًا “جريئًا ومسؤولًا”. هذا جيد ، لكنه يبدو وكأنه صاحب مكان حتى يحصل العالم على إحساس مناسب بعدد الممثلين السيئين الموجودين هناك.