باستخدام هذا الموقع ، فإنك توافق على سياسة الخصوصية و شروط الاستخدام .
القبول
[Ruby_E_Template slug="military-header"]
Aa
الخليج ترند
  • اخر الاخبار
  • دوليات
  • سياسة
  • اقتصاد
  • صحة
  • تقنية
  • ثقافة وفنون
  • رياضة
  • سياحة وسفر
  • منوعات
البحث
  • الرئيسية
  • اخر الاخبار
  • دوليات
    • الولايات المتحدة
    • اوروبا
    • اسيا
    • كندا
    • افريقيا
  • اقتصاد
    • اسواق
    • شركات
    • الاستثمار
    • العملات المشفرة
  • سياسة
  • تقنية
  • رياضة
  • صحة
  • منوعات
  • المزيد
    • ثقافة وفنون
    • سياحة وسفر
[Ruby_E_Template slug="military-mobile"]
2023 © المراقب. جميع الحقوق محفوظة.

المملكة المتحدة تدرج أهم سيناريوهات الذكاء الاصطناعي الكابوسية قبل انعقاد قمة التكنولوجيا الكبرى

فريق التحرير كتب فريق التحرير منذ سنتين 4 دقيقة للقراءة

الأسلحة البيولوجية القاتلة، وهجمات الأمن السيبراني الآلية، ونماذج الذكاء الاصطناعي القوية التي تفلت من السيطرة البشرية. هذه ليست سوى بعض التهديدات المحتملة التي يشكلها الذكاء الاصطناعي، وفقًا لتقرير جديد للحكومة البريطانية. وتم إصداره للمساعدة في وضع جدول أعمال القمة الدولية حول سلامة الذكاء الاصطناعي التي ستستضيفها المملكة المتحدة الأسبوع المقبل. تم تجميع التقرير بمدخلات من شركات الذكاء الاصطناعي الرائدة مثل وحدة DeepMind التابعة لشركة Google والعديد من الإدارات الحكومية في المملكة المتحدة، بما في ذلك وكالات الاستخبارات.

يقول جو وايت، مبعوث المملكة المتحدة للتكنولوجيا إلى الولايات المتحدة، إن القمة توفر فرصة لجمع الدول وشركات الذكاء الاصطناعي الرائدة معًا لفهم المخاطر التي تشكلها التكنولوجيا بشكل أفضل. يقول وايت، الذي ساعد في التخطيط لقمة الأسبوع المقبل، إن إدارة الجوانب السلبية المحتملة للخوارزميات ستتطلب تعاونًا عضويًا على الطراز القديم. يقول وايت: “هذه ليست تحديات بين الآلة والإنسان”. “هذه تحديات من إنسان إلى إنسان.”

سيلقي رئيس وزراء المملكة المتحدة ريشي سوناك خطابًا غدًا حول كيف أنه بينما يفتح الذكاء الاصطناعي فرصًا للنهوض بالبشرية، فمن المهم أن نكون صادقين بشأن المخاطر الجديدة التي يخلقها للأجيال القادمة.

ستُعقد قمة سلامة الذكاء الاصطناعي في المملكة المتحدة يومي 1 و2 نوفمبر وستركز في الغالب على الطرق التي يمكن للناس من خلالها إساءة استخدام الأشكال المتقدمة من الذكاء الاصطناعي أو فقدان السيطرة عليها. وانتقد بعض خبراء الذكاء الاصطناعي والمديرين التنفيذيين في المملكة المتحدة تركيز الحدث، قائلين إنه يجب على الحكومة إعطاء الأولوية لمزيد من الاهتمامات على المدى القريب، مثل مساعدة المملكة المتحدة على التنافس مع قادة الذكاء الاصطناعي العالميين مثل الولايات المتحدة والصين.

وقد حذر بعض خبراء الذكاء الاصطناعي من أن التصاعد الأخير في النقاش حول سيناريوهات الذكاء الاصطناعي البعيدة، بما في ذلك احتمال انقراض الإنسان، يمكن أن يصرف انتباه المنظمين والجمهور عن مشاكل أكثر إلحاحا، مثل الخوارزميات المتحيزة أو تكنولوجيا الذكاء الاصطناعي التي تعزز الشركات المهيمنة بالفعل.

يتناول تقرير المملكة المتحدة الصادر اليوم الآثار المترتبة على الأمن القومي لنماذج اللغات الكبيرة، وتقنية الذكاء الاصطناعي وراء ChatGPT. يقول وايت إن وكالات الاستخبارات البريطانية تعمل مع Frontier AI Task Force، وهي مجموعة خبراء تابعة للحكومة البريطانية، لاستكشاف سيناريوهات مثل ما يمكن أن يحدث إذا قامت الجهات الفاعلة السيئة بدمج نموذج لغوي كبير مع وثائق حكومية سرية. يشير أحد الاحتمالات المشؤومة التي تمت مناقشتها في التقرير إلى أن النموذج اللغوي الكبير الذي يسرع الاكتشافات العلمية يمكن أن يعزز أيضًا المشاريع التي تحاول صنع أسلحة بيولوجية.

في شهر يوليو/تموز من هذا العام، أخبر داريو أمودي، الرئيس التنفيذي لشركة أنثروبيك الناشئة للذكاء الاصطناعي، أعضاء مجلس الشيوخ الأمريكي أنه في غضون العامين أو الأعوام الثلاثة المقبلة قد يكون من الممكن أن يقترح نموذج لغوي كيفية تنفيذ هجمات واسعة النطاق بالأسلحة البيولوجية. لكن وايت يقول إن التقرير عبارة عن وثيقة رفيعة المستوى وليس المقصود منها “أن تكون بمثابة قائمة تسوق لكل الأشياء السيئة التي يمكن القيام بها”.

بالإضافة إلى الوكالات الحكومية في المملكة المتحدة، تمت مراجعة التقرير الذي صدر اليوم من قبل لجنة تضم خبراء في السياسة والأخلاقيات من مختبر DeepMind للذكاء الاصطناعي التابع لشركة Google، والذي بدأ كشركة ناشئة في مجال الذكاء الاصطناعي في لندن واستحوذت عليه شركة البحث في عام 2014، وشركة Hugging Face، وهي شركة ناشئة. تطوير برمجيات الذكاء الاصطناعي مفتوحة المصدر.

كما تمت استشارة يوشوا بينجيو، أحد “عرابي الذكاء الاصطناعي” الثلاثة الذين فازوا بأعلى جائزة في مجال الحوسبة، جائزة تورينج، لتقنيات التعلم الآلي التي تلعب دوراً أساسياً في طفرة الذكاء الاصطناعي الحالية. قال بينجيو مؤخرًا إن تفاؤله بشأن التكنولوجيا التي ساعد في تعزيزها قد تضاءل، وأن هناك حاجة إلى منظمة جديدة “للدفاع عن الإنسانية” للمساعدة في إبقاء الذكاء الاصطناعي تحت السيطرة.

المقال السابق مفيدة شيحة: محمد صلاح استطاع بثبات وهدوء وعقلانية إيصال حقيقة غزة للغرب
المقال التالي نيكي هالي تهاجم بايدن بسبب معاداة السامية في الحرم الجامعي – وتتعهد بإصلاح الأمر
اترك تعليقك اترك تعليقك

اترك تعليقاً إلغاء الرد

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

مقالات ذات صلة

تعطي وكالة حماية البيئة بعض المواد الكيميائية إلى الأبد تمريرة

تقنية

لا يمكن لـ Elon Musk's Grok Ai التوقف عن الحديث عن “الإبادة الجماعية البيضاء”

تقنية

السبب الذي يجعل نغمة Murderbot تشعر

تقنية

تقوم Microsoft بقطع الوصول إلى بيانات بحث Bing أثناء تحويل التركيز إلى chatbots

تقنية

تهديدات عنيفة ضد الولايات المتحدة تتجاوز عبر الإنترنت

تقنية

يحلم وكيل منظمة العفو الدولية من Google DeepMind خوارزميات بما يتجاوز الخبرة البشرية

تقنية

مراجعة: Jackrabbit OG2 Pro و XG Pro Ebikes

تقنية

مراجعة: eargo 8 أجهزة السمع

تقنية
[Ruby_E_Template slug="military-footer"]
Welcome Back!

Sign in to your account

نسيت كلمة المرور؟