اتخذ الاتحاد الأوروبي خطوة كبيرة يوم الأربعاء نحو وضع القواعد – الأولى في العالم – حول كيفية استخدام الشركات للذكاء الاصطناعي.
إنها خطوة جريئة تأمل بروكسل أن تمهد الطريق لمعايير عالمية لتقنية مستخدمة في كل شيء من روبوتات المحادثة مثل ChatGPT من OpenAI إلى الإجراءات الجراحية واكتشاف الاحتيال في البنوك.
“لقد صنعنا التاريخ اليوم” ، هذا ما قاله براندو بينيفي ، عضو البرلمان الأوروبي الذي يعمل على الذكاء الاصطناعي في الاتحاد الأوروبي قانون ، قال للصحفيين.
وافق المشرعون على نسخة مسودة من القانون ، والتي سيتم التفاوض عليها الآن مع مجلس الاتحاد الأوروبي والدول الأعضاء في الاتحاد الأوروبي قبل أن تصبح قانونًا.
وأضاف بينيفي: “بينما تدق شركات التكنولوجيا الكبرى جرس الإنذار بشأن إبداعاتها ، مضت أوروبا قدمًا واقترحت استجابة ملموسة للمخاطر التي بدأ الذكاء الاصطناعي يشكلها”.
حذر المئات من كبار العلماء والباحثين في مجال الذكاء الاصطناعي الشهر الماضي من أن التكنولوجيا تشكل خطر انقراض البشرية ، وقد دعا العديد من الشخصيات البارزة – بما في ذلك رئيس مايكروسوفت براد سميث والرئيس التنفيذي لشركة OpenAI سام التمان – إلى مزيد من التنظيم.
في قمة الرؤساء التنفيذيين في جامعة ييل هذا الأسبوع ، قال أكثر من 40٪ من قادة الأعمال – بما في ذلك رئيس شركة وول مارت دوج ماكميليون والرئيس التنفيذي لشركة Coca-Cola (KO) جيمس كوينسي – إن الذكاء الاصطناعي لديه القدرة على تدمير البشرية من خمس إلى 10 سنوات من الآن.
في ظل هذه الخلفية ، يسعى قانون الاتحاد الأوروبي للذكاء الاصطناعي إلى “تعزيز استيعاب الذكاء الاصطناعي الجدير بالثقة والمتمحور حول الإنسان وضمان مستوى عالٍ من حماية الصحة والسلامة والحقوق الأساسية والديمقراطية وسيادة القانون والبيئة من الآثار الضارة. ”
فيما يلي النقاط الرئيسية.
بمجرد الموافقة عليه ، سينطبق القانون على أي شخص يطور وينشر أنظمة الذكاء الاصطناعي في الاتحاد الأوروبي ، بما في ذلك الشركات الموجودة خارج الكتلة.
يعتمد مدى التنظيم على المخاطر التي يخلقها تطبيق معين ، من الحد الأدنى إلى “غير مقبول”.
الأنظمة التي تندرج في الفئة الأخيرة محظورة تمامًا. وتشمل هذه الأنظمة التعرف على الوجه في الوقت الفعلي في الأماكن العامة ، وأدوات الشرطة التنبؤية وأنظمة تسجيل النتائج الاجتماعية ، مثل تلك الموجودة في الصين ، والتي تمنح الأشخاص “درجة صحية” بناءً على سلوكهم.
يضع التشريع أيضًا قيودًا صارمة على تطبيقات الذكاء الاصطناعي “عالية الخطورة” ، وهي تلك التي تهدد “ضررًا جسيمًا لصحة الناس أو سلامتهم أو حقوقهم الأساسية أو البيئة”.
وتشمل هذه الأنظمة المستخدمة للتأثير على الناخبين في الانتخابات ، فضلاً عن منصات وسائل التواصل الاجتماعي التي تضم أكثر من 45 مليون مستخدم يوصون بمحتوى لمستخدميهم – وهي قائمة تشمل Facebook و Twitter و Instagram.
يحدد القانون أيضًا متطلبات الشفافية لأنظمة الذكاء الاصطناعي.
على سبيل المثال ، سيتعين على أنظمة مثل ChatGPT الكشف عن أن محتواها تم إنشاؤه بواسطة الذكاء الاصطناعي ، وتمييز الصور المزيفة بشكل عميق عن الصور الحقيقية وتوفير ضمانات ضد إنشاء محتوى غير قانوني.
يجب أيضًا نشر ملخصات تفصيلية للبيانات المحمية بحقوق الطبع والنشر المستخدمة لتدريب أنظمة الذكاء الاصطناعي هذه.
تقع أنظمة الذكاء الاصطناعي ذات المخاطر الدنيا أو بدون مخاطر ، مثل عوامل تصفية البريد العشوائي ، إلى حد كبير خارج القواعد.
من المرجح أن تندرج معظم أنظمة الذكاء الاصطناعي ضمن الفئات عالية الخطورة أو المحظورة ، مما يترك أصحابها عرضة لغرامات كبيرة محتملة إذا خالفت اللوائح ، وفقًا لراشيل مولدون ، محامي (متقاضي) في شركة ميتلاند تشامبرز القانونية بلندن.
قد يؤدي الانخراط في ممارسات الذكاء الاصطناعي المحظورة إلى غرامة تصل إلى 40 مليون يورو (43 مليون دولار) أو ما يعادله ما يصل إلى 7٪ من حجم المبيعات السنوي للشركة في جميع أنحاء العالم ، أيهما أعلى.
يذهب هذا إلى أبعد من قانون خصوصية البيانات في أوروبا ، اللائحة العامة لحماية البيانات ، والتي تم بموجبها فرض غرامة قدرها 1.2 مليار يورو (1.3 مليار دولار) على Meta الشهر الماضي. تحدد اللائحة العامة لحماية البيانات (GDPR) غرامات تصل إلى 10 ملايين يورو (10.8 مليون دولار) ، أو ما يصل إلى 2٪ من حجم الأعمال العالمي للشركة.
وقال مولدون إن الغرامات التي يفرضها قانون الذكاء الاصطناعي هي بمثابة “صرخة حرب من المشرعين ليقولوا” خذوا الأمر على محمل الجد “.
في الوقت نفسه ، ستكون العقوبات “متناسبة” مع مراعاة الوضع السوقي لمقدمي الخدمات الصغيرة ، مما يشير إلى أنه قد يكون هناك بعض التساهل مع الشركات الناشئة.
يتطلب القانون أيضًا من الدول الأعضاء في الاتحاد الأوروبي إنشاء “وضع حماية” تنظيمي واحد على الأقل لاختبار أنظمة الذكاء الاصطناعي قبل نشرها.
قال دراجو تودوراتش ، عضو البرلمان الأوروبي للصحفيين: “الشيء الوحيد الذي أردنا تحقيقه من خلال هذا النص هو التوازن”. وأضاف أن القانون يحمي المواطنين مع “تشجيع الابتكار ، وليس إعاقة الإبداع ونشر وتطوير الذكاء الاصطناعي في أوروبا”.
يمنح القانون المواطنين الحق في تقديم شكاوى ضد مزودي أنظمة الذكاء الاصطناعي وينص على وجود مكتب لمنظمة العفو الدولية في الاتحاد الأوروبي لمراقبة إنفاذ التشريعات. كما يتطلب من الدول الأعضاء تعيين سلطات إشرافية وطنية للذكاء الاصطناعي.
رحبت Microsoft (MSFT) – التي تعد ، جنبًا إلى جنب مع Google ، في طليعة تطوير الذكاء الاصطناعي على مستوى العالم – بالتقدم المحرز في القانون ولكنها قالت إنها تتطلع إلى “مزيد من الصقل”.
قال متحدث باسم Microsoft في بيان: “نعتقد أن الذكاء الاصطناعي يتطلب حواجز تشريعية وجهود مواءمة على المستوى الدولي وإجراءات تطوعية هادفة من قبل الشركات التي تطور وتنشر الذكاء الاصطناعي”.
وفي الوقت نفسه ، دعت شركة IBM (IBM) الاتحاد الأوروبي على صانعي السياسات اتباع “نهج قائم على المخاطر” واقترحوا أربعة “تحسينات رئيسية” على مسودة القانون ، بما في ذلك مزيد من الوضوح حول الذكاء الاصطناعي عالي الخطورة “بحيث يتم تسجيل حالات الاستخدام عالية الخطورة حقًا”.
قد لا يدخل القانون حيز التنفيذ حتى عام 2026 ، وفقًا لمولدون ، الذي قال إن المراجعات مرجحة ، نظرًا لمدى سرعة تقدم الذكاء الاصطناعي. لقد مر التشريع بالفعل بالعديد من التحديثات منذ أن بدأت صياغته في عام 2021.
قال مولدون: “القانون سيتوسع في نطاقه مع تطور التكنولوجيا”.