انضمت الولايات المتحدة والمملكة المتحدة إلى أكثر من اثنتي عشرة دولة للكشف عن اتفاقية جديدة للذكاء الاصطناعي تهدف إلى منع الجهات المارقة من إساءة استخدام التكنولوجيا، على الرغم من عدم اعتقاد جميع الخبراء بمدى فائدة الاتفاقية.
وقال فيل سيجل، مؤسس مركز التأهب المتقدم ومحاكاة الاستجابة للتهديدات، لشبكة فوكس نيوز ديجيتال: “هذا في الواقع اتفاق نوايا أكثر من كونه جوهرًا فعليًا”.
وتأتي تعليقات سيجل بعد الكشف عما وصفه مسؤول أمريكي بأنه أول اتفاق تفصيلي على الإطلاق بشأن سلامة الذكاء الاصطناعي يوم الأحد، وفقًا لتقرير صادر عن رويترز، ووضع تدابير تهدف إلى إنشاء أنظمة ذكاء اصطناعي “آمنة حسب التصميم”.
اتفاقية متعددة الدول تسعى إلى التعاون في تطوير تكنولوجيا الذكاء الاصطناعي “الحدود”
أقرت الوثيقة المؤلفة من 20 صفحة والتي وقعتها 18 دولة بالحاجة إلى تطوير طرق للحفاظ على سلامة الجمهور من الانتهاكات المحتملة لتكنولوجيا الذكاء الاصطناعي. لكن الاتفاقية غير ملزمة وستكون بمثابة دليل حول كيفية مراقبة إساءة استخدام أنظمة الذكاء الاصطناعي، حسبما ذكرت رويترز.
وقال سيجل: “يجب أن تكون هناك بعض التفاصيل وراء هذا – مجموعة من الإجراءات واللوائح – قبل أن يتمكن أي شخص من تقديم رد فعل يتجاوز عبارة “إنها بداية جيدة”.” “قد تتضمن أمثلة الإجراءات مبادرات وضع العلامات المائية على الخوارزميات و/أو المخرجات، أو مطالبة البائعين بتنفيذ إجراء KYC (اعرف عميلك) مثلما تفعل البنوك لمنع غسيل الأموال، أو اختبارات الضغط الخوارزمية للتأكد من أنه لا يمكن التلاعب بها بسهولة. من قبل ممثلين سيئين.”
ووصف كريستوفر ألكسندر، كبير مسؤولي التحليلات في مجموعة بايونير للتنمية، الاتفاقية الجديدة بأنها ليست أكثر من مجرد “إجراء للشعور بالسعادة”.
وقال ألكسندر لـ Fox News Digtial: “القيمة الوحيدة المحتملة لاتفاقية كهذه هي إذا كانت تمهد الطريق للوائح يمكن للحكومات استخدامها لمعاقبة الأشخاص الذين يسيئون استخدام الذكاء الاصطناعي”. “تزويد الحكومات بقواعد قابلة للتنفيذ والصناعة بمبادئ توجيهية لمتابعة ما هو مهم بالفعل. وإلا فإن هذا هو “الإعجاب بالمشكلة” النموذجي بدلاً من حل أي شيء.”
يقول الخبير إن معهد إدارة بايدن لسلامة الذكاء الاصطناعي ليس “كافيًا” للتعامل مع المخاطر
وتأتي هذه الصفقة في الوقت الذي تضغط فيه إدارة بايدن من أجل مزيد من التنظيم للذكاء الاصطناعي، بما في ذلك التوقيع على أمر تنفيذي الشهر الماضي تم الترحيب به باعتباره خطوة أولى نحو تطوير أكثر أمانًا للذكاء الاصطناعي. لكن الخبراء يشككون أيضًا في أن النظام سيكون له وزن كبير، وهو أمر اعترفت به الإدارة بينما كانت تضغط على الكونجرس لاتخاذ مزيد من الإجراءات.
وكانت ألمانيا وإيطاليا وجمهورية التشيك وإستونيا وبولندا وأستراليا وتشيلي وإسرائيل ونيجيريا وسنغافورة من بين الدول التي وقعت على أحدث اتفاقية دولية، وهو ما قال مدير وكالة الأمن السيبراني وأمن البنية التحتية الأمريكية جين إيسترلي إنه خطوة مهمة نحو سلامة الذكاء الاصطناعي. حول العالم.
وقال إيسترلي لرويترز “هذه هي المرة الأولى التي نرى فيها تأكيدا على أن هذه القدرات لا ينبغي أن تقتصر فقط على الميزات الرائعة ومدى السرعة التي يمكننا بها طرحها في السوق أو كيف يمكننا التنافس لخفض التكاليف”، مضيفا أن بنود الاتفاقية تمثل المبادئ التوجيهية “اتفاقًا على أن أهم شيء يجب القيام به في مرحلة التصميم هو الأمان”.
ومع ذلك، لا يزال الخبراء متشككين، حيث قال مدير سياسة مشروع Bull Moose، Ziven Havens، إن الاتفاقية “لطيفة” وتفتقر إلى “الجدية”.
ما هو الذكاء الاصطناعي (AI)؟
وقال هافينز لـ Fox News Digital: “لقد اجتمعت 18 دولة للعمل على هذه الورقة وأفضل ما يمكن أن يتوصلوا إليه هو تذكير مطوري الذكاء الاصطناعي بتأمين سلاسل التوريد الخاصة بهم ومراقبة أمان النماذج”.
ويشير هافينز أيضًا إلى عدم وجود آليات تنفيذ في الصفقة، بحجة أنها تبدو وكأنها “مقالة افتتاحية أكثر من كونها اقتراحًا سياسيًا جادًا”.
وقال هافينز: “بدلاً من ذلك، يجب على الكونجرس أن يتخذ هذه الخطوة ويقترح تشريعات جدية بشأن الذكاء الاصطناعي، بما في ذلك الذكاء الاصطناعي التوليدي والسلامة البسيطة”.
وقد شارك في هذا القلق صامويل مانجولد لينيت، محرر فريق العمل في The Federalist، الذي دعا إلى بذل المزيد من الجهود بشأن تنظيم الذكاء الاصطناعي في الولايات المتحدة.
وقال مانجولد لينيت لقناة فوكس نيوز ديجيتال: “من المرجح أن يكون لهذه الاتفاقية تأثير ضئيل، إن وجد. إنها غير ملزمة وتفتقر إلى آليات التنفيذ”. “نريد تشجيع مطوري الذكاء الاصطناعي على إنشاء منتجات آمنة تحمي بيانات المستخدم والملكية الفكرية، ولكننا بحاجة إلى اتخاذ إجراءات على الجبهة الداخلية، وليس الإيماءات الفارغة في الخارج.”