ابق على اطلاع مع التحديثات المجانية
ببساطة الاشتراك في الذكاء الاصطناعي Myft Digest – يتم تسليمها مباشرة إلى صندوق الوارد الخاص بك.
عندما انفجرت محطة تشيرنوبيل للطاقة النووية في عام 1986 ، كانت كارثة لأولئك الذين عاشوا في مكان قريب في شمال أوكرانيا. لكن الحادث كان أيضًا كارثة لصناعة عالمية تدفع الطاقة النووية كتكنولوجيا في المستقبل. إن العدد الصافي للمفاعلات النووية قد تم تسويته إلى حد كبير لأنه كان ينظر إليه على أنه غير آمن. ماذا سيحدث اليوم إذا عانت صناعة الذكاء الاصطناعى من حادث مكافئ؟
تم طرح هذا السؤال على هامش قمة AI Action لهذا الأسبوع في باريس من قبل ستيوارت راسل ، أستاذ علوم الكمبيوتر بجامعة كاليفورنيا ، بيركلي. كانت إجابته أنه كان من المغالطة الاعتقاد بأنه يجب أن يكون هناك مفاضلة بين السلامة والابتكار. لذا فإن أولئك الأكثر حماسة بوعد تقنية الذكاء الاصطناعى يجب أن يسيروا بعناية. وقال “لا يمكنك الابتكار دون سلامة”.
وردد تحذير راسل من قبل بعض خبراء الذكاء الاصطناعي الآخرين في باريس. يجب أن نتفق على الحد الأدنى من معايير السلامة على مستوى العالم. أخبرني ويندي هول ، مدير معهد علوم الويب بجامعة ساوثهامبتون ، “نحتاج إلى وجودها قبل أن يكون لدينا كارثة كبيرة.
لكن مثل هذه التحذيرات كانت في الغالب على الهوامش ، حيث قام المندوبون الحكوميون في القمة بالتجول حول القصر الكبير الكهفي. في خطاب مثقوب ، أكد JD Vance على ضرورة الأمن القومي للقيادة في الذكاء الاصطناعي. جادل نائب رئيس أمريكا بأن التكنولوجيا ستجعلنا “أكثر إنتاجية ، أكثر ازدهارًا ، وأكثر حرية”. وقال: “لن يتم فوز مستقبل الذكاء الاصطناعي عن طريق التنقل اليدوي”.
في حين ركزت أول قمة دولية من الذكاء الاصطناعى في بريتلي بارك في بريطانيا في عام 2023 بالكامل تقريبًا – معظمها قال بشكل مفرط – في قضايا السلامة ، كانت الأولوية في باريس هي العمل حيث قام الرئيس إيمانويل ماكرون بالاستثمارات الكبيرة في صناعة التكنولوجيا الفرنسية. أخبرني ماكس تيجارك ، رئيس معهد مستقبل الحياة ، الذي شارك في استضافة حدث هامشي على السلامة: “العملية التي بدأت في Bletchley ، والتي كنت أعتقد أنها مدهشة حقًا ، كانت محددة هنا”.
أكثر ما يتعلق بالناشطين في السلامة هو السرعة التي تتطور بها التكنولوجيا وديناميات الشركات – والجيوسياسية – لتحقيق الذكاء العام المصطنعة ، عندما تتطابق أجهزة الكمبيوتر إلى البشر في جميع المهام المعرفية. لدى العديد من شركات أبحاث الذكاء الاصطناعى ، بما في ذلك Openai و Google Deepmind و Nothropic و Deepseek في الصين ، مهمة واضحة للوصول إلى AGI.
في وقت لاحق من هذا الأسبوع ، توقع داريو أمودي ، المؤسس المشارك والرئيس التنفيذي للأنثروبور ، أن AGI على الأرجح قد يتحقق في عام 2026 أو 2027. ”
إلى جانبه ، كان ديميس هاسابيس ، المؤسس المشارك والرئيس التنفيذي لشركة Google Deepmind ، أكثر حذراً ، متوقعًا احتمال بنسبة 50 في المائة لتحقيق AGI في غضون خمس سنوات. “لن أصاب بالصدمة إذا كان أقصر. وقال “سأصدم إذا كان أطول من 10 سنوات”.
يصورهم منتقدو ناشطو السلامة على أنهم خياليون علميون يعتقدون أن إنشاء عملية سبراعة مصطنعة سيؤدي إلى انقراض بشري: يقفون من اليدين مثل Luddites في اليوم الأخير في طريق التقدم. لكن خبراء السلامة يشعرون بالقلق من الأضرار التي يمكن أن تحدثها أنظمة الذكاء الاصطناعى القوية للغاية الموجودة اليوم وخطر هجمات الأسلحة السيبرانية أو الأسلحة الحيوية الضخمة. حتى الباحثين الرئيسيين يعترفون بأنهم لا يفهمون تمامًا كيفية عمل نماذجهم ، مما يخلق مخاوف تتعلق بالأمن والخصوصية.
وجدت ورقة بحثية عن العوامل النائمة من الأنثروبور في العام الماضي أن بعض نماذج الأساس يمكن أن تخدع البشر للاعتقاد بأنهم يعملون بأمان. على سبيل المثال ، يمكن للنماذج التي تم تدريبها على كتابة رمز آمن في عام 2023 إدراج رمز استغلال عندما تم تغيير السنة إلى عام 2024. لم يتم الكشف عن هذا السلوك الخلفي من خلال تقنيات السلامة القياسية في الإنسان. أدت إمكانية وجود مرشح من المانشوريين الخوارزميين المتربص في نموذج ديبسيك في الصين بالفعل إلى حظره من قبل العديد من البلدان.
على الرغم من ذلك ، فإن Tegmark متفائل ، بأن كل من شركات الذكاء الاصطناعى والحكومات ستشهد المصلحة الذاتية الساحقة في إعادة تحديد أولوية السلامة. لا تريد الولايات المتحدة أو الصين أو أي شخص آخر أنظمة الذكاء الاصطناعى عن السيطرة. وقال Xue Lan ، عميد معهد الحوكمة الدولية لمنظمة العفو الدولية بجامعة تسينغهوا في بكين ، لحدث السلامة: “سلامة الذكاء الاصطناعى هي الصالح العام العالمي”.
في السباق لاستغلال الإمكانات الكاملة لمنظمة العفو الدولية ، قد يكون أفضل شعار للصناعة هو أختام البحرية الأمريكية ، ولم يتم الإشارة إليها بسبب الكثير من اليدين. “بطيء ناعم وسلس سريع.”