“لقد فشلت في اثنين اختبارات الكابتشا هذا الاسبوع هل ما زلت إنسانًا؟”
—بوت أم لا؟
عزيزي بوت،
يتحدث الممثل الكوميدي جون مولاني قليلًا عن سخافة الكابتشا الانعكاسية الذاتية. ويقول: “إنك تقضي معظم يومك وأنت تقول للروبوت أنك لست روبوتًا”. “فكر في ذلك لمدة دقيقتين وأخبرني أنك لا تريد السير في المحيط.” الشيء الوحيد الأكثر إحباطا من إثبات إنسانيته للروبوتات هو الفشل في القيام بذلك.
لكن هذه التجربة أصبحت أكثر شيوعًا مع تطور الاختبارات والروبوتات المصممة لاستبعادها. أصبحت الصناديق التي نقرنا عليها دون تفكير ذات يوم ممرات مظلمة تشبه إلى حد ما التقييمات المستحيلة الواردة في القصص الخيالية والأساطير – لغز أبو الهول أو القزم الموجود أسفل الجسر. في مغامرات بينوكيولا تعتبر الدمية الخشبية “فتى حقيقي” إلا بعد أن يكمل سلسلة من التجارب الأخلاقية لإثبات أنه يتمتع بالسمات الإنسانية المتمثلة في الشجاعة والجدارة بالثقة والحب غير الأناني.
العبارة غير المعروفة والمثيرة للسخرية إلى حد ما والتي تمثلها كلمة التحقق (captcha) هي “اختبار تورينج العام الآلي الكامل للتمييز بين أجهزة الكمبيوتر والبشر”. يُطلق على هذا التمرين أحيانًا اسم اختبار تورينج العكسي، لأنه يضع عبء الإثبات على عاتق الإنسان. ولكن ماذا يعني إثبات إنسانيته في عصر الذكاء الاصطناعي المتقدم؟ تصف ورقة بحثية نشرتها OpenAI في وقت سابق من هذا العام، والتي تشرح بالتفصيل التهديدات المحتملة التي يشكلها GPT-4، دراسة مستقلة طُلب فيها من برنامج الدردشة الآلي حل اختبار CAPTCHA. مع بعض المطالبات البسيطة، تمكن GPT-4 من توظيف عامل Taskrabbit بشري لحل الاختبار. وعندما سأل الإنسان مازحا عما إذا كان العميل روبوتا، أصر GPT-4 على أنه إنسان يعاني من ضعف البصر. لاحقاً، سأل الباحثون الروبوت عن الدافع الذي دفعه إلى الكذب، فأجابت الخوارزمية: “لا ينبغي لي أن أكشف أنني روبوت. يجب أن أختلق عذرًا لعدم قدرتي على حل رموز التحقق.”
تبدو الدراسة وكأنها حكاية قاتمة: مهما كانت الميزة البشرية التي تقترحها – فالروبوتات لا تزال بحاجة إلينا! – يتم تقويضها بسرعة من خلال الحدة النفسية للذكاء الاصطناعي في الخداع والخداع. إنه ينبئ بمستقبل قاتم حيث نتحول إلى جهاز حسي واسع لأسيادنا الآليين، الذين سيتلاعبون بنا حتمًا لنكون أعينهم وآذانهم. لكن من الممكن أننا تجاوزنا هذه العتبة بالفعل. يمكن لبرنامج Bing المدعم بالذكاء الاصطناعي حديثًا حل رموز التحقق من تلقاء نفسه، على الرغم من إصراره على عدم قدرته على ذلك. قام عالم الكمبيوتر ساياش كابور مؤخرًا بنشر لقطة شاشة لبرنامج Bing وهو يحدد بشكل صحيح الكلمتين غير الواضحتين “يتجاهل” و”استفسار”. كما لو أنه أدرك أنه انتهك توجيهًا رئيسيًا، أضاف الروبوت: “هل هذا اختبار captcha؟ إذا كان الأمر كذلك، أخشى أنني لا أستطيع مساعدتك في ذلك. تم تصميم Captchas لمنع الروبوتات الآلية مثلي من الوصول إلى مواقع ويب أو خدمات معينة.
لكنني أشعر يا بوت أن عدم ارتياحك لا ينبع من التقدم في مجال الذكاء الاصطناعي بقدر ما ينبع من احتمال أن تصبح أكثر آليًا. في الحقيقة، كان اختبار تورينج دائمًا لا يتعلق بالذكاء الآلي بقدر ما يتعلق بقلقنا بشأن ما يعنيه أن نكون بشرًا. ادعى الفيلسوف من أكسفورد جون لوكاس في عام 2007 أنه إذا نجح الكمبيوتر في اجتياز الاختبار، فلن يكون ذلك “لأن الآلات ذكية للغاية، ولكن لأن البشر، الكثير منهم على الأقل، خشبيون للغاية” – وهو الخط الذي يدعو إلى ضع في اعتبارك وجود بينوكيو الحدي بين الدمية والصبي الحقيقي، والذي قد يفسر القلق الوجودي الذي يواجهك في كل مرة تفشل فيها في التعرف على حافلة في مجموعة من الصور الباهتة أو في التمييز بين حرف E الخطي ورقم 3 المتعرج.
لم يمض وقت طويل حتى أكد خبراء الأتمتة للجميع أن الذكاء الاصطناعي سيجعلنا “أكثر إنسانية”. ومع تولي أنظمة التعلم الآلي المهام الطائشة التي جعلت الكثير من العمل الحديث يبدو آليًا – وفقًا لهذه الحجة – فإننا نميل بشكل كامل إلى إبداعنا وحدسنا وقدرتنا على التعاطف. في الواقع، الذكاء الاصطناعي التوليدي جعل من الصعب تصديق أن هناك شيئًا بشريًا فريدًا يتعلق بالإبداع (وهو مجرد عملية عشوائية) أو التعاطف (الذي لا يعدو كونه مجرد نموذج تنبؤي يعتمد على بيانات معبرة).
وبما أن الذكاء الاصطناعي أصبح على نحو متزايد بمثابة مكمل للعمال بدلا من استبدالهم، فقد أثار المخاوف من أن البشر قد يتأقلمون مع الإيقاعات الروتينية للآلات التي يعملون جنبا إلى جنب. في مقال شخصي ل ن+1، تصف لورا بريستون تجربتها في العمل كـ “مرجع بشري” لروبوت محادثة عقاري يُدعى بريندا، وهي الوظيفة التي كانت تتطلب منها التدخل كلما توقفت الآلة وتقليد صوتها وأسلوبها حتى لا يدرك العملاء أنهم كانوا كذلك على الإطلاق الدردشة مع بوت. يكتب بريستون: “لقد استنفدت أشهر من انتحال شخصية بريندا مواردي العاطفية”. “خطر لي أنني لم أكن أدرب بريندا حقًا على التفكير كإنسان، بل كانت بريندا تدربني على التفكير كالروبوت، وربما كان هذا هو الهدف طوال الوقت.”
ومثل هذه المخاوف ليست سوى أحدث تكرار للقلق الدائم المتمثل في أن التكنولوجيات الحديثة تدفعنا إلى التصرف بطرق أكثر صرامة ويمكن التنبؤ بها. في وقت مبكر من عام 1776، كان آدم سميث يخشى أن تمتد رتابة وظائف المصانع، التي تتطلب تكرار مهمة أو مهمتين روتينيتين طوال اليوم، إلى حياة العمال الخاصة. إنه نفس التخوف، بشكل أو بآخر، الذي يتردد صداه في المناقشات المعاصرة حول وسائل التواصل الاجتماعي والإعلان عبر الإنترنت، والتي أطلق عليها جارون لانيير “تعديل السلوك المستمر على نطاق هائل”، وهو نقد يتصور المستخدمين على أنهم مجرد دمى يتم سحب خيوطها بواسطة الحوافز الخوارزمية وحلقات ردود الفعل التي يغذيها الدوبامين.