حذر عالم كمبيوتر بريطاني حصل على لقب “الأب الروحي للذكاء الاصطناعي” من أن مخاطر الذكاء الاصطناعي التي اشتهرت في أفلام مثل “The Terminator” يمكن أن تصبح حقيقة أكثر من كونها خيالا.
وقال جيفري هينتون، عالم الكمبيوتر البريطاني وعالم النفس المعرفي، خلال مقابلة مع برنامج “60 دقيقة”، وفقا لتقرير من موقع ياهو نيوز: “أعتقد أنه في غضون خمس سنوات قد يكون قادرا على التفكير بشكل أفضل منا”.
وحث هينتون، الذي اشتهر بعمله في إطار عمل الذكاء الاصطناعي، على توخي الحذر في التطوير المستمر لتكنولوجيا الذكاء الاصطناعي، متسائلا عما إذا كان البشر يستطيعون الفهم الكامل للتكنولوجيا التي تشهد حاليا تطورا سريعا.
وقال هينتون: “أعتقد أننا ننتقل إلى فترة، ولأول مرة على الإطلاق، لدينا أشياء أكثر ذكاءً منا”.
ينبغي للولايات المتحدة، وليس الصين، أن تأخذ زمام المبادرة في مجال الذكاء الاصطناعي
قال هينتون إنه بينما يقوم البشر بتطوير الخوارزمية التي تستخدمها أدوات الذكاء الاصطناعي للتعلم، إلا أنهم لا يفهمون سوى القليل عن كيفية حدوث هذا التعلم فعليًا. بمجرد أن تبدأ مفاهيم الذكاء الاصطناعي في التعلم تصبح أكثر تعقيدًا، قال هينتون إن فهم ما تفكر فيه التكنولوجيا أمر صعب تمامًا مثل قراءة العقل البشري.
وقال هينتون: “لدينا فكرة جيدة جدًا عما تفعله تقريبًا”. “ولكن بمجرد أن يصبح الأمر معقدًا حقًا، فإننا لا نعرف في الواقع ما الذي يحدث أكثر مما نعرف ما يحدث في دماغك.”
وحذر عالم الكمبيوتر من أن إحدى الطرق التي يمكن أن يفقد بها البشر السيطرة على الذكاء الاصطناعي هي عندما تبدأ التكنولوجيا في كتابة “رمز الكمبيوتر الخاص بهم لتعديل أنفسهم”.
وقال هينتون: “هذا شيء يجب أن نقلق بشأنه بشدة”.
ويطرح هذا الواقع مشاكل خطيرة، كما قال هينتون، قائلاً إنه لا يرى طريقة للبشر لضمان استمرار أمان التكنولوجيا.
البنتاغون يتطلع إلى تطوير “أسطول” من طائرات الذكاء الاصطناعي بدون طيار وأنظمة لمحاربة الصين: تقرير
وقال: “إننا ندخل فترة من عدم اليقين الكبير حيث نتعامل مع أشياء لم نفعلها من قبل”. “وعادة في المرة الأولى التي تتعامل فيها مع شيء جديد تمامًا، فإنك تخطئ في فهمه. ولا يمكننا أن نتحمل أن نخطئ في هذه الأشياء.”
وقد يؤدي عدم اليقين هذا إلى مخاطر كانت تبدو قبل بضع سنوات فقط في عالم الخيال بأمان، بما في ذلك سيطرة الذكاء الاصطناعي على البشرية.
وقال هينتون: “لا أقول إن ذلك سيحدث. إذا تمكنا من منعهم من الرغبة في ذلك، فسيكون ذلك أمرًا رائعًا. لكن ليس من الواضح أننا نستطيع منعهم من الرغبة في ذلك”.
قال كريستوفر ألكساندر، كبير مسؤولي التحليلات في Pioneer Development Group، لـ Fox News Digital إنه يشارك هينتون العديد من نفس المخاوف، بما في ذلك المخاوف بشأن ما سيحدث للعمال البشريين الذين يجدون أنفسهم مشردين بسبب الذكاء الاصطناعي.
يجب أن تكون هيمنة الصين على الذكاء الاصطناعي بمثابة دعوة للاستيقاظ لنا جميعًا
وقال ألكساندر: “إن قدرة الذكاء الاصطناعي على القيام بمهمة العامل الروتيني ستكون بمثابة الصدمة الأولى، حيث أن هناك منظورًا حقيقيًا للغاية لأعداد كبيرة من الأشخاص الذين لم يعودوا قادرين على التوظيف،” بينما أشار إلى أن هينتون لم يكن يقول أن الذكاء الاصطناعي سوف “يحكم البشرية”، لكنه قد يكتسب قدرات من شأنها أن “تغير بشكل دائم” الحضارة الإنسانية. “إنه محق في ملاحظة أن البشر قد يصبحون ثاني أقوى ذكاء على هذا الكوكب.”
وقال جون شويبي، مدير السياسات في مشروع المبادئ الأمريكية، لقناة فوكس نيوز ديجيتال، إن الخطر يعني أن الكونجرس يجب أن يتصرف الآن من خلال التنظيم.
“يتساءل المرء: هل قرأ أي من هؤلاء المتحمسين للذكاء الاصطناعي كتابًا؟” تساءل شويبي. “إن المخاوف بشأن مخاطر الذكاء الاصطناعي لها ما يبررها تمامًا. وكما هو الحال مع الشخصيات الخيالية في هذه القصص، يبدو أن عمالقة التكنولوجيا لدينا مملوءون بالغطرسة الواثقة من أنفسهم، وهم على يقين من أنه لن يحدث أي خطأ. لا يمكننا تحمل ذلك خطر. يجب على الكونجرس أن يسن ضمانات للذكاء الاصطناعي لحماية البشرية.
ويوافق فيل سيجيل، مؤسس مركز الاستعداد المتقدم ومحاكاة الاستجابة للتهديدات (CAPTS)، على أن بعض مخاوف هينتون “مبررة”، رغم أنه قال إن مصدر القلق الرئيسي ليس أن التكنولوجيا “سوف تطغى على البشرية”.
وقال سيجل: “لا أعتقد أن هذه الخوارزميات واعية، لذا فإن القلق من أنها ستطغى على البشرية بمفردها ليس هو مصدر القلق الرئيسي”. “ومع ذلك، قد لا يهم ذلك كثيرًا لأن الجهات الفاعلة السيئة، التي تتمتع بالوعي، ستكون قادرة تمامًا على استخدام هذه الأنظمة لتمكينها من إلحاق الضرر بالبشرية وعلى الأقل “برمجتها” للقيام بأشياء سيئة.”
انقر هنا لمزيد من الأخبار الأمريكية
وبغض النظر عن مصدر التهديدات، يعتقد سيجل أنه من الحكمة أن يستعد الناس لعواقب غير متوقعة لتقدم الذكاء الاصطناعي، ليس فقط من خلال التنظيم، ولكن باستخدام “الأدوات الحالية في الدفاع، والاستعداد للتهديدات المحتملة من خلال التدريب ضدها، و تطوير قدرات جديدة لزيادة احتمالية ردنا وحماية أنفسنا بشكل جيد”.
خلال مقابلته التلفزيونية، قال هينتون إن “الرسالة الرئيسية” التي كان يأمل في إيصالها هي أنه لا يزال هناك “قدر كبير من عدم اليقين” بشأن مستقبل تطوير الذكاء الاصطناعي.
وقال هينتون: “هذه الأشياء مفهومة بالفعل، ولأنها تفهم فنحن بحاجة إلى التفكير مليًا بشأن ما هو التالي، ونحن لا نعرف”.
لكن صامويل هاموند، وهو خبير اقتصادي كبير في مؤسسة الابتكار الأمريكي، وافق على أن تكنولوجيا الذكاء الاصطناعي ستكون قادرة على التفكير بشكل أفضل من البشر في السنوات الخمس المقبلة، وأن هناك قدرا كبيرا من عدم اليقين بشأن “ما سيحدث بعد ذلك”، على الرغم من أنه أشار إلى تطور جديد مؤخرا. تقدم كبير في الأبحاث يمكن أن يشير إلى أن أسوأ مخاوف البشرية يمكن أن تظل في المسارح.
وقال هاموند لشبكة فوكس نيوز ديجيتال: “إن التقدم الأخير في أبحاث قابلية تفسير الذكاء الاصطناعي يشير إلى أن خطر سيطرة الذكاء الاصطناعي على العالم أو خداع مستخدميه قد يكون مبالغًا فيه”. “إن قابلية التفسير الآلي هي علم الأعصاب بالنسبة لدماغ الذكاء الاصطناعي، ولكن على عكس الدماغ البشري، يمكننا قياس كل ما يفعله دماغ الذكاء الاصطناعي بشكل مباشر وإجراء تجارب دقيقة.”
وأشار هاموند إلى أن مثل هذه الأبحاث أظهرت أن البشر سيكونون قادرين على “قراءة عقل الذكاء الاصطناعي”، مما يسمح للبشر باكتشاف ما إذا كان يكذب ويمنح المطورين فرصة للسيطرة على السلوكيات التي يحتمل أن تكون خطرة.
وقال هاموند: “المخاطر الناجمة عن الجهات الفاعلة السيئة والاضطرابات المجتمعية الأوسع لا تزال قائمة وليس لها حلول سهلة”. “قد يكون التكيف المؤسسي والتطور المشترك الطريقة الأكثر أهمية لضمان أن يؤدي الذكاء الاصطناعي إلى عالم أفضل، ولكن لسوء الحظ فإن حكومتنا تقاوم الإصلاح بشدة.”