يقول تقرير دولي كبير حول سلامة الذكاء الاصطناعي إن الخبراء لا يستطيعون الاتفاق على المخاطر التي تشكلها التكنولوجيا، ومن غير الواضح ما إذا كان الذكاء الاصطناعي سيساعدنا أم يضرنا.
ويخلص التقرير، الذي ترأسه الكندي يوشوا بنجيو، إلى أن “المسار المستقبلي للذكاء الاصطناعي للأغراض العامة غير مؤكد بشكل ملحوظ”.
وتقول إن “مجموعة واسعة من المسارات” ممكنة “حتى في المستقبل القريب، بما في ذلك النتائج الإيجابية للغاية والسلبية للغاية”.
تم التكليف بإعداد التقرير في قمة سلامة الذكاء الاصطناعي العام الماضي التي استضافتها المملكة المتحدة، وهو أول اجتماع عالمي من نوعه حول الذكاء الاصطناعي.
طلبت المملكة المتحدة من بينجيو، الملقب بـ “الأب الروحي” للذكاء الاصطناعي والذي يشغل منصب المدير العلمي في ميلا، معهد كيبيك للذكاء الاصطناعي، أن يرأس التقرير. وتم إصداره قبل قمة عالمية أخرى حول الذكاء الاصطناعي، والتي ستعقد في سيول، كوريا الجنوبية، الأسبوع المقبل.
وكتب بنجيو في التقرير: “نحن نعلم أن الذكاء الاصطناعي المتقدم يتطور بسرعة كبيرة، وأن هناك قدرًا كبيرًا من عدم اليقين بشأن كيفية تأثير أنظمة الذكاء الاصطناعي المتقدمة هذه على طريقة حياتنا وعملنا في المستقبل”.
الأخبار العاجلة من كندا ومن جميع أنحاء العالم يتم إرسالها إلى بريدك الإلكتروني فور حدوثها.
وقالت حكومة المملكة المتحدة في بيان صحفي يوم الجمعة إن التقرير هو “أول تقرير علمي دولي مستقل على الإطلاق” حول سلامة الذكاء الاصطناعي، وأنه “سيلعب دورًا جوهريًا” في إثراء المناقشات في كوريا الجنوبية الأسبوع المقبل.
وساهم في إعداد التقرير مجموعة من 75 خبيرا، بما في ذلك لجنة رشحتها 30 دولة والاتحاد الأوروبي والأمم المتحدة. والتقرير الذي صدر يوم الجمعة هو تقرير مؤقت، ومن المتوقع إصدار نسخة نهائية بحلول نهاية العام.
وهو يركز على أنظمة الذكاء الاصطناعي ذات الأغراض العامة، مثل ChatGPT الخاص بـ OpenAI، والتي يمكنها إنشاء نصوص وصور ومقاطع فيديو بناءً على المطالبات.
ويقول التقرير إن الخبراء “ما زالوا يختلفون حول عدة أسئلة، صغيرة وكبيرة، حول قدرات الذكاء الاصطناعي للأغراض العامة والمخاطر وتخفيف المخاطر”.
أحد مجالات النقاش هو احتمالية “مخاطر مثل التأثيرات واسعة النطاق على سوق العمل، والقرصنة المدعومة بالذكاء الاصطناعي أو الهجمات البيولوجية، وفقد المجتمع السيطرة على الذكاء الاصطناعي للأغراض العامة”.
ويحدد التقرير عددًا من المخاطر، بما في ذلك الضرر الذي يمكن أن يسببه الذكاء الاصطناعي من خلال المحتوى المزيف والمعلومات المضللة والاحتيال، فضلاً عن الهجمات الإلكترونية. كما يشير التقرير إلى المخاطر التي يمكن أن يسببها التحيز في الذكاء الاصطناعي، لا سيما في “المجالات عالية المخاطر مثل الرعاية الصحية والتوظيف والإقراض المالي”.
أحد السيناريوهات المحتملة هو أن البشر سوف يفقدون السيطرة على الذكاء الاصطناعي، ولن يتمكنوا من السيطرة على التكنولوجيا حتى لو كانت تسبب الضرر.
وقال التقرير إن هناك إجماعًا على أن التكنولوجيا الحالية ذات الأغراض العامة لا تشكل هذا الخطر، لكن بعض الخبراء يعتقدون أن العمل المستمر لتطوير الذكاء الاصطناعي المستقل، والذي يمكنه “التصرف والتخطيط والسعي لتحقيق الأهداف”، يمكن أن يؤدي إلى مثل هذه النتيجة.
ويقول التقرير: “يختلف الخبراء حول مدى معقولية سيناريوهات فقدان السيطرة، ومتى يمكن حدوثها، ومدى صعوبة التخفيف منها”.
& نسخة 2024 الصحافة الكندية