قد يؤدي الذكاء الاصطناعي إلى انقراض البشرية ، كما حذر بعض الخبراء ، بمن فيهم رؤساء شركتي “Open AI” و “Google DeepMind” ، ولكن متى يمكن للآلات أن تهيمن على البشر؟
منذ إطلاقه في نوفمبر 2022 ، يعد ChatGBT ، وهو روبوت دردشة يستخدم الذكاء الاصطناعي للإجابة على الأسئلة أو إنشاء نص أو حتى رمز بناءً على طلب المستخدمين ، أسرع تطبيق إنترنت نموًا في التاريخ.
في غضون شهرين فقط ، وصل عدد مستخدميه إلى 100 مليون مستخدم ، وهو رقم استغرق الوصول إليه عامين ونصف ، وفقًا لشركة مراقبة التكنولوجيا SensorTown.
أثارت الشعبية الهائلة لـ GPT Chat ، التي طورتها شركة OpenAI بدعم مالي من Microsoft ، تكهنات مكثفة حول تأثير الذكاء الاصطناعي على مستقبل البشرية.
أيد العشرات من الخبراء بيانًا نُشر على صفحة الويب الخاصة بمركز أمان الذكاء الاصطناعي ، قائلين: “يجب أن يكون الحد من خطر الانقراض من الذكاء الاصطناعي أولوية عالمية ، إلى جانب المخاطر المجتمعية الأخرى مثل الأوبئة والحرب النووية”.
لكن آخرين يقولون إن المخاوف مبالغ فيها.
محاكاة البشر
لا يمكن تمييز النص (من المقالات والشعر والنكات إلى رمز الكمبيوتر) والصور (مثل الرسوم البيانية واللقطات والأعمال الفنية) التي تنتجها أنظمة الذكاء الاصطناعي مثل ChatGPT و DAL و Bard و Alphacode عن العمل البشري. .
يستخدمه الطلاب لكتابة واجباتهم المدرسية والسياسيين لكتابة الخطب ، على سبيل المثال الخطاب الذي ألقاه الممثل الديمقراطي جيك أوشينكلوس في الكونجرس الأمريكي ، باستخدام الذكاء الاصطناعي.
قالت شركة IBM العملاقة للتكنولوجيا إنها ستتوقف عن توظيف الأشخاص في 7800 وظيفة طالما أن الذكاء الاصطناعي يمكن أن يحل محلهم.
إذا كانت كل هذه التغييرات تجهدك ، فكن مستعدًا:
نحن فقط في المرحلة الأولى من الذكاء الاصطناعي ، وهناك مرحلتان أخريان يخشى بعض العلماء أن تهدد بقاء الجنس البشري.
فيما يلي المراحل الثلاث:
1. الذكاء الاصطناعي ضيق النطاق (NAI)
يركز الذكاء الاصطناعي الضيق على مهمة واحدة ، وأداء عمل متكرر ضمن مجموعة محددة من الوظائف. يتعلم بشكل عام من الكثير من البيانات عبر الإنترنت ، ولكن فقط في المنطقة المحددة التي تمت برمجتها من أجلها.
ومن الأمثلة على ذلك برامج الشطرنج ، القادرة على التغلب على بطل العالم ، لكنها غير قادرة على أداء مهام أخرى.
الهواتف الذكية مليئة بالتطبيقات التي تستخدم هذه التقنية ، من خرائط GPS إلى برامج الموسيقى والفيديو التي تعرف أذواقك وتقدم الاقتراحات وفقًا لذلك.
حتى أكثر الأنظمة تقدمًا ، مثل السيارات ذاتية القيادة ودردشة GPT ، هي أشكال من الذكاء الاصطناعي على نطاق ضيق. إنها غير قادرة على العمل خارج مجموعة من الأدوار ، لذلك لا يمكنها اتخاذ القرارات بمفردها.
ومع ذلك ، يعتقد بعض الخبراء أن الأنظمة المبرمجة للتعلم تلقائيًا ، مثل ChatGPT و AutoGPT ، يمكن أن تنتقل إلى المرحلة التالية من التطوير.
2. الذكاء الاصطناعي العام (AGI)
يتم الوصول إلى مرحلة الذكاء الاصطناعي العام ، حيث يمكن للآلة أداء أي مهمة فكرية يمكن للإنسان القيام بها.
يُعرف أيضًا باسم “الذكاء الاصطناعي القوي”.
توقف لمدة ستة أشهر
في مارس 2022 ، دعا أكثر من 1000 خبير تقني “جميع مختبرات الذكاء الاصطناعي إلى التوقف فورًا ، لمدة 6 أشهر على الأقل ، عن تدريب أنظمة الذكاء الاصطناعي الأكثر قوة من GPT4” ، وهو أحدث إصدار من GPT Chat.
كتب أحد مؤسسي شركة “آبل” ، ستيف وزنياك ، ورواد التكنولوجيا الآخرين ، بما في ذلك إيلون ماسك ، مالك شركتي Tesla و SpaceX: “يمكن لأنظمة الذكاء الاصطناعي ذات الذكاء البشري التنافسي أن تشكل مخاطر جسيمة على المجتمع والإنسانية”. كان ماسك أحد مؤسسي Open AI ، قبل أن يستقيل من مجلس الإدارة بسبب خلافات مع قيادة الشركة.
في الرسالة التي نشرها معهد Future of Life غير الربحي ، قال الخبراء إنه إذا رفضت الشركات التسرع في وقف مشاريعها ، “يجب على الحكومات التدخل وإيقافها” حتى يمكن اتخاذ تدابير السلامة اللازمة في مكانها الصحيح. مُنفّذ.
“ غبي مثل الذكاء ”
ووقعت كاريسا فيليز ، من معهد أخلاقيات الذكاء الاصطناعي بجامعة أكسفورد ، على الرسالة ، لكنها تعتقد أن البيان الأخير الصادر عن مركز أمن الذكاء الاصطناعي ، الذي حذر من انقراض الإنسان ، مبالغ فيه للغاية ، وقررت عدم التوقيع عليه.
وقالت لمراسل بي بي سي أندرو ويب: “نوع الذكاء الاصطناعي الذي نبنيه الآن هو غبي بقدر ما هو ذكي ، وإذا حاول أي شخص استخدام ChatGPT أو غيرها من أنظمة الذكاء الاصطناعي ، فسوف يرون قيودًا بالغة الأهمية.”
لكن فيليز تقول إنها قلقة من أن الذكاء الاصطناعي يمكن أن يفرز معلومات مضللة بمعدل هائل.
“مع اقتراب الانتخابات الأمريكية في عام 2024 ، ومع تسريح العاملين في مجال سلامة وأخلاقيات الذكاء الاصطناعي في منصات مهمة مثل تويتر وغيرها ، فإنني أشعر بقلق أكبر حيال هذا الأمر.”
تدرك حكومة الولايات المتحدة التهديدات المحتملة. قال البيت الأبيض في بيان يوم 4 مايو: “الذكاء الاصطناعي هو أحد أقوى التقنيات في عصرنا ، ولكن لاغتنام الفرص التي يقدمها ، يجب علينا أولاً تقليل مخاطره”.
استدعى الكونجرس الأمريكي الرئيس التنفيذي لشركة OpenAI Sam Altman للإجابة على أسئلة حول ChatGPT.
خلال جلسة مجلس الشيوخ ، قال ألتمان إنه من “الضروري” للحكومة تنظيم هذا المجال ؛ لأن الذكاء الاصطناعي يزداد قوة باطراد.
قال كارلوس إجناسيو جوتيريز ، الباحث في السياسة العامة في معهد مستقبل الحياة ، لبي بي سي إن أحد أكبر التحديات التي يطرحها الذكاء الاصطناعي هو أنه “لا توجد هيئة جماعية من الخبراء تقرر كيفية تنظيمها ، كما يحدث على سبيل المثال مع الهيئة الحكومية الدولية المعنية بتغير المناخ “. المناخ”.
وهو ما يقودنا إلى المرحلة الثالثة والأخيرة من الذكاء الاصطناعي.
3. الذكاء الاصطناعي الخارق (ASI)
عندما نصل إلى المرحلة الثانية (AGI) ، سنبدأ المرحلة النهائية: “الذكاء الاصطناعي الخارق” ، والذي قد يحدث عندما يكون الذكاء الاصطناعي أعلى من الذكاء البشري.
يُعرِّف نيك بوستروم ، الفيلسوف وخبير الذكاء الاصطناعي بجامعة أكسفورد ، الذكاء الخارق بأنه ذكاء “يتفوق بشكل كبير على أفضل العقول البشرية في كل مجال تقريبًا ، بما في ذلك الإبداع العلمي والحكمة العامة والمهارات الاجتماعية.”
يوضح جوتيريز: “لكي يصبح الشخص مهندسًا أو ممرضًا أو محامًا ، عليه أن يدرس لفترة طويلة. تكمن مشكلة الذكاء الاصطناعي في أنه يمكن أن يطور نفسه باستمرار ، عندما لا نستطيع ذلك “.
خيال علمي
يعود هذا المفهوم إلى فيلم “The Terminator” ، حيث تشعل الآلات حربًا نووية لتدمير البشرية.
قال أرفيند نارايانان ، عالم الكمبيوتر في جامعة برينستون ، لبي بي سي سابقًا إن سيناريوهات كارثة الخيال العلمي غير واقعية: “الذكاء الاصطناعي الحالي ليس قريبًا من القدرة على إدراك هذه المخاطر. ونتيجة لذلك ، يصرف الانتباه عن الأضرار على المدى القريب الذكاء الاصطناعي. “
على الرغم من الجدل حول مدى اكتساب الآلات للذكاء الواسع الذي يتمتع به البشر ، وخاصة الذكاء العاطفي ، إلا أنه من أكثر الأشياء التي تقلق أولئك الذين يعتقدون أننا على وشك الوصول إلى المرحلة الثالثة.
في مقابلة حديثة مع بي بي سي ، حذر جيفري هينتون ، المسمى “أب الذكاء الاصطناعي” ، وهو رائد في التعلم الآلي من خلال التجربة ، من أننا قد نقترب من هذه النقطة.
قال الرجل البالغ من العمر 75 عامًا ، والذي ترك Google مؤخرًا: “في الوقت الحالي ، الآلات ليست أكثر ذكاءً منا ، بقدر ما أستطيع أن أرى ، لكنني أعتقد أنها قد تكون على وشك تحقيق ذلك”.
وفي بيان أرسل إلى صحيفة نيويورك تايمز أعلن فيه مغادرته غوغل ، قال هينتون إنه نادم على عمله ؛ لأنه يخشى أن تستخدم “الجهات السيئة” الذكاء الاصطناعي للقيام “بأشياء سيئة”.
وضرب مثالاً على “سيناريو الكابوس” الذي تبثه البي بي سي ، قائلاً: “تخيل ، على سبيل المثال ، أن بعض الممثلين السيئين يحبون [الرئيس الروسي فلاديمير] قرر بوتين منح الروبوتات القدرة على إنشاء أهدافهم الخاصة “.
وحذر من أن الآلات يمكنها في النهاية “إنشاء أهداف فرعية مثل ،” أحتاج إلى اكتساب المزيد من القوة “، والتي يمكن أن تشكل” خطرًا وجوديًا “.
لكن هينتون قال إنه يعتقد أن الذكاء الاصطناعي “على المدى القريب” سيحقق فوائد أكثر بكثير من المخاطر ، “لذلك لا أعتقد أنه يجب علينا التوقف عن تطوير هذه الأشياء”.
الفناء أو الخلود
أصدر الفيزيائي البريطاني ستيفن هوكينغ تحذيرًا صارخًا.
وقال لبي بي سي في عام 2014 ، قبل أربع سنوات من وفاته: “إن تطوير الذكاء الاصطناعي بالكامل قد يعني نهاية الجنس البشري”.
وقال إن آلة بهذا المستوى من الذكاء “ستنطلق من تلقاء نفسها وتعيد تصميم نفسها بمعدل متزايد”.
من ناحية أخرى ، فإن أحد أكبر المتحمسين للذكاء الاصطناعي هو المخترع والمستقبلي راي كورزويل ، باحث الذكاء الاصطناعي في Google والمؤسس المشارك لجامعة Singularity University في وادي السيليكون.
الروبوتات النانوية والخلود
يعتقد كورزويل أن البشر سيكونون قادرين على استخدام ذكاء اصطناعي فائق للتغلب على الحواجز البيولوجية.
في عام 2015 ، توقع أنه بحلول عام 2030 سيتمكن البشر من تحقيق الخلود بفضل الروبوتات النانوية (الصغيرة جدًا) التي تعمل داخل أجسامنا ، لإصلاح أي ضرر أو مرض.
حوكمة الذكاء الاصطناعي
يوافق جوتيريز على أن المفتاح هو إنشاء نظام حوكمة للذكاء الاصطناعي.
قال: تخيلوا مستقبلاً فيه كيان فيه الكثير من المعلومات عن كل إنسان على هذا الكوكب وعاداته. [بفضل عمليات البحث على الإنترنت] يمكنه التحكم بنا بطرق لا ندركها “.
السيناريو الأسوأ ليس الحروب بين البشر والروبوتات. الأسوأ هو أننا لا ندرك أنه يتم التلاعب بنا ، لأننا نشارك هذا الكوكب مع كيان أكثر ذكاءً منا “.
المصدر: مقالات