من المقرر أن تستضيف كوريا الجنوبية قمة مصغرة هذا الأسبوع حول مخاطر وتنظيم الذكاء الاصطناعي، في أعقاب الاجتماع الافتتاحي لسلامة الذكاء الاصطناعي في بريطانيا العام الماضي والذي استقطب حشدًا متنوعًا من نجوم التكنولوجيا والباحثين والمسؤولين.
ويهدف التجمع في سيول إلى البناء على العمل الذي بدأ في اجتماع المملكة المتحدة بشأن كبح التهديدات التي تشكلها أنظمة الذكاء الاصطناعي المتطورة.
إليك ما تحتاج إلى معرفته حول قمة الذكاء الاصطناعي في سيول وقضايا سلامة الذكاء الاصطناعي.
كيف يعيد الذكاء الاصطناعي تشكيل الحرب الحديثة
ما هي الجهود الدولية التي تم بذلها بشأن سلامة الذكاء الاصطناعي؟
تعد قمة سيول واحدة من العديد من الجهود العالمية لإنشاء حواجز أمام التكنولوجيا سريعة التقدم والتي تعد بتغيير العديد من جوانب المجتمع، ولكنها أثارت أيضًا مخاوف بشأن المخاطر الجديدة على الحياة اليومية مثل التحيز الخوارزمي الذي يشوه نتائج البحث والتهديدات الوجودية المحتملة. إلى الإنسانية.
في قمة المملكة المتحدة التي عقدت في تشرين الثاني (نوفمبر) في قاعدة سرية سابقة لفك الشفرات في زمن الحرب في بلتشلي شمال لندن، اجتمع الباحثون والقادة الحكوميون والمسؤولون التنفيذيون في مجال التكنولوجيا وأعضاء مجموعات المجتمع المدني، والعديد منهم لديهم وجهات نظر متعارضة بشأن الذكاء الاصطناعي، في محادثات مغلقة. اختلط الرئيس التنفيذي لشركة Tesla Elon Musk والرئيس التنفيذي لشركة OpenAI Sam Altman مع سياسيين مثل رئيس الوزراء البريطاني ريشي سوناك.
ووقع مندوبون من أكثر من عشرين دولة، بما في ذلك الولايات المتحدة والصين، على إعلان بلتشلي، واتفقوا على العمل معًا لاحتواء المخاطر “الكارثية” المحتملة التي يفرضها التقدم السريع في مجال الذكاء الاصطناعي.
في مارس/آذار، وافقت الجمعية العامة للأمم المتحدة على قرارها الأول بشأن الذكاء الاصطناعي، مما يدعم الجهود الدولية لضمان أن التكنولوجيا الجديدة القوية تعود بالنفع على جميع الدول، وتحترم حقوق الإنسان، وأن تكون “آمنة ومأمونة وجديرة بالثقة”.
في وقت سابق من هذا الشهر، عقدت الولايات المتحدة والصين أول محادثات رفيعة المستوى حول الذكاء الاصطناعي في جنيف لمناقشة كيفية معالجة مخاطر التكنولوجيا سريعة التطور ووضع معايير مشتركة لإدارتها. هناك، أثار المسؤولون الأمريكيون مخاوف بشأن “إساءة استخدام الصين للذكاء الاصطناعي”، بينما وبخ الممثلون الصينيون الولايات المتحدة بشأن “القيود والضغوط” على الذكاء الاصطناعي، وفقًا لحكوماتهم.
ما الذي سيتم مناقشته في قمة سيول؟
وتستضيف حكومتا كوريا الجنوبية والمملكة المتحدة الاجتماع الذي سيعقد في الفترة من 21 إلى 22 مايو.
وفي اليوم الأول، الثلاثاء، سيجتمع الرئيس الكوري الجنوبي يون سوك يول وسوناك مع القادة افتراضيًا. من المتوقع أن تقدم شركات الذكاء الاصطناعي الرائدة تحديثات حول كيفية وفائها بالالتزامات التي تم التعهد بها في قمة بلتشلي لضمان سلامة نماذج الذكاء الاصطناعي الخاصة بها.
وفي اليوم الثاني، سيجتمع الوزراء الرقميون في اجتماع شخصي يستضيفه وزير العلوم الكوري الجنوبي لي جونغ هو ووزيرة التكنولوجيا البريطانية ميشيل دونيلان. وتسلط هذه المواضيع الضوء على مدى اتساع نطاق التركيز إلى ما هو أبعد من المخاطر الشديدة التي كانت محور تركيز قمة بلتشلي. وسيتبادل المشاركون أفضل الممارسات وخطط العمل الملموسة. وسيتبادلون أيضًا الأفكار حول كيفية حماية المجتمع من التأثيرات السلبية المحتملة للذكاء الاصطناعي على مجالات مثل استخدام الطاقة والعمال وانتشار المعلومات الخاطئة والمضللة، وفقًا للمنظمين.
أُطلق على الاجتماع اسم القمة الافتراضية المصغرة، وهو بمثابة اجتماع مؤقت حتى النسخة الشخصية الكاملة التي تعهدت فرنسا بعقدها.
ومن المقرر أن يضم اجتماع الوزراء الرقمي ممثلين من دول مثل الولايات المتحدة والصين وألمانيا وفرنسا وإسبانيا وشركات بما في ذلك OpenAI، صانع ChatGPT، وGoogle، وMicrosoft، وAnthropic.
ما هو التقدم الذي أحرزته جهود السلامة في مجال الذكاء الاصطناعي؟
وكان الاتفاق الذي تم التوصل إليه في اجتماع المملكة المتحدة خفيفا من حيث التفاصيل ولم يقترح طريقة لتنظيم تطوير الذكاء الاصطناعي.
وقال لي سيونج يوب، الأستاذ في الجامعة: “حضرت الولايات المتحدة والصين القمة الأخيرة. ولكن عندما ننظر إلى بعض المبادئ التي تم الإعلان عنها بعد الاجتماع، كانت مماثلة لما تم الإعلان عنه بالفعل بعد بعض اجتماعات الأمم المتحدة ومنظمة التعاون الاقتصادي والتنمية”. كلية الدراسات العليا لإدارة التكنولوجيا في جامعة كوريا في سيول. “لم يكن هناك شيء جديد.”
وقال إنه من المهم عقد قمة عالمية حول قضايا سلامة الذكاء الاصطناعي، ولكن سيكون من “الصعب للغاية” على جميع المشاركين التوصل إلى اتفاقات لأن كل دولة لديها مصالح مختلفة ومستويات مختلفة من تقنيات وصناعات الذكاء الاصطناعي المحلية.
بينما تدرس الحكومات والهيئات العالمية كيفية تنظيم الذكاء الاصطناعي لأنه يتحسن في أداء المهام التي يؤديها البشر، يتعاون مطورو أقوى أنظمة الذكاء الاصطناعي معًا لوضع نهجهم المشترك لوضع معايير سلامة الذكاء الاصطناعي. أعلنت الشركة الأم لفيسبوك Meta Platforms وأمازون يوم الاثنين عن انضمامهما إلى منتدى Frontier Model Forum، وهي مجموعة تأسست العام الماضي بواسطة Anthropic وGoogle وMicrosoft وOpenAI.
وحدد التقرير المؤقت للجنة الخبراء حول حالة سلامة الذكاء الاصطناعي، والذي صدر يوم الجمعة لإثراء المناقشات في سيول، مجموعة من المخاطر التي يشكلها الذكاء الاصطناعي للأغراض العامة، بما في ذلك استخدامه الضار لزيادة “نطاق وتعقيد” عمليات الاحتيال والاحتيال، وتعزيز عمليات الاحتيال. نشر المعلومات المضللة، أو إنشاء أسلحة بيولوجية جديدة.
وقال التقرير إن أنظمة الذكاء الاصطناعي المعطلة يمكن أن تنشر التحيز في مجالات مثل الرعاية الصحية والتوظيف والإقراض المالي، في حين أن قدرة التكنولوجيا على أتمتة مجموعة كبيرة من المهام تشكل أيضًا مخاطر نظامية على سوق العمل.
وتأمل كوريا الجنوبية في استغلال قمة سيول لأخذ زمام المبادرة في صياغة الحوكمة العالمية ومعايير الذكاء الاصطناعي. لكن بعض النقاد يقولون إن البلاد تفتقر إلى البنية التحتية للذكاء الاصطناعي المتقدمة بما يكفي للعب دور قيادي في قضايا الحكم هذه.