في 30 مايو ، أصدر مركز أمان الذكاء الاصطناعي تحذيرًا عامًا من المخاطر التي يشكلها الذكاء الاصطناعي على البشرية. يؤكد البيان المكون من جملة واحدة والذي وقعه أكثر من 350 عالمًا ومديرًا تنفيذيًا وشخصيات عامة: “يجب أن يكون التخفيف من خطر الانقراض من الذكاء الاصطناعي أولوية عالمية إلى جانب مخاطر المجتمع الأخرى مثل الأوبئة والحرب النووية”.
من الصعب عدم الشعور بالمفارقة المزدوجة الوحشية في هذا الإعلان.
أولاً ، بعض الموقعين – بما في ذلك الرؤساء التنفيذيون لـ Google DeepMind و OpenAI – يحذرون من نهاية الحضارة يمثلون الشركات المسؤولة عن إنشاء هذه التكنولوجيا في المقام الأول. ثانيًا ، هذه الشركات نفسها هي التي تمتلك القدرة على ضمان أن الذكاء الاصطناعي يفيد البشرية بالفعل ، أو على الأقل لا يضر.
يجب أن يلتفتوا إلى نصيحة مجتمع حقوق الإنسان وأن يعتمدوا على الفور إطار عمل العناية الواجبة الذي يساعدهم على تحديد ومنع وتخفيف الآثار السلبية المحتملة لمنتجاتهم.
بينما حذر العلماء منذ فترة طويلة من المخاطر التي يحملها الذكاء الاصطناعي ، لم يدرك جزء أكبر من عامة الناس العواقب السلبية التي يمكن أن تترتب على ذلك حتى الإصدار الأخير لأدوات الذكاء الاصطناعي التوليدية الجديدة.
الذكاء الاصطناعي العام هو مصطلح واسع ، يصف الخوارزميات “الإبداعية” التي يمكنها إنشاء محتوى جديد ، بما في ذلك الصور والنصوص والصوت والفيديو وحتى رموز الكمبيوتر. يتم تدريب هذه الخوارزميات على مجموعات بيانات ضخمة ، ثم تستخدم هذا التدريب لإنشاء مخرجات لا يمكن تمييزها غالبًا عن البيانات “الحقيقية” – مما يجعل من الصعب ، إن لم يكن من المستحيل ، معرفة ما إذا كان المحتوى قد تم إنشاؤه بواسطة شخص أم بواسطة خوارزمية.
حتى الآن ، اتخذت منتجات Generative AI ثلاثة أشكال رئيسية: أدوات مثل ChatGPT التي تنشئ نصًا ، وأدوات مثل Dall-E و Midjourney و Stable Diffusion التي تولد الصور ، وأدوات مثل Codex و Copilot التي تنشئ رمزًا للكمبيوتر.
كان الظهور المفاجئ لأدوات الذكاء الاصطناعي التوليدية الجديدة غير مسبوق. استغرق chatbot ChatGPT الذي طورته OpenAI أقل من شهرين للوصول إلى 100 مليون مستخدم. هذا يفوق بكثير النمو الأولي للمنصات الشعبية مثل TikTok ، والتي استغرقت تسعة أشهر للوصول إلى أكبر عدد ممكن من الناس.
على مر التاريخ ، ساعدت التكنولوجيا في النهوض بحقوق الإنسان ولكنها تسببت أيضًا في حدوث ضرر ، غالبًا بطرق لا يمكن التنبؤ بها. عندما تم إطلاق أدوات البحث على الإنترنت ووسائل التواصل الاجتماعي وتكنولوجيا الهاتف المحمول لأول مرة ، ومع تزايد اعتمادها وإمكانية الوصول إليها على نطاق واسع ، كان من المستحيل تقريبًا التنبؤ بالعديد من الطرق المؤلمة التي أصبحت بها هذه التقنيات التحويلية محركات ومضاعفات لانتهاكات حقوق الإنسان حول العالم. عالم.
دور ميتا في التطهير العرقي لعام 2017 للروهينجا في ميانمار ، على سبيل المثال ، أو استخدام برامج تجسس غير قابلة للكشف تقريبًا تم نشرها لتحويل الهواتف المحمولة إلى آلات مراقبة على مدار 24 ساعة تُستخدم ضد الصحفيين والمدافعين عن حقوق الإنسان ، كلاهما من عواقب إدخال التخريب. التقنيات التي لم تؤخذ انعكاساتها الاجتماعية والسياسية بعين الاعتبار الجاد.
بالتعلم من هذه التطورات ، يدعو مجتمع حقوق الإنسان الشركات التي تطور منتجات الذكاء الاصطناعي التوليدية إلى التحرك فورًا لدرء أي عواقب سلبية قد تترتب على حقوق الإنسان.
إذن ، كيف يمكن أن يبدو النهج القائم على حقوق الإنسان تجاه الذكاء الاصطناعي التوليدي؟ هناك ثلاث خطوات نقترحها ، بناءً على أدلة وأمثلة من الماضي القريب.
أولاً ، من أجل الوفاء بمسؤوليتهم عن احترام حقوق الإنسان ، يجب عليهم التنفيذ الفوري لإطار عمل صارم للعناية الواجبة بحقوق الإنسان ، على النحو المنصوص عليه في مبادئ الأمم المتحدة التوجيهية بشأن الأعمال التجارية وحقوق الإنسان. وهذا يشمل العناية الواجبة الاستباقية والمستمرة لتحديد الأضرار الفعلية والمحتملة ، والشفافية فيما يتعلق بهذه الأضرار ، والتخفيف والمعالجة عند الاقتضاء.
ثانيًا ، يجب على الشركات التي تطور هذه التقنيات المشاركة بشكل استباقي مع الأكاديميين والجهات الفاعلة في المجتمع المدني والمنظمات المجتمعية ، لا سيما تلك التي تمثل المجتمعات المهمشة تقليديًا.
على الرغم من أننا لا نستطيع التنبؤ بكل الطرق التي يمكن أن تسبب بها هذه التكنولوجيا الجديدة الضرر أو تساهم فيه ، لدينا أدلة كثيرة على أن المجتمعات المهمشة هي الأكثر عرضة للمعاناة من العواقب. شاركت الإصدارات الأولية من ChatGPT في التحيز العنصري والجنساني ، مما يشير ، على سبيل المثال ، إلى أن النساء من السكان الأصليين “يستحقون” أقل من الأشخاص من الأجناس والأجناس الأخرى.
يجب أن تكون المشاركة النشطة مع المجتمعات المهمشة جزءًا من تصميم المنتج وعمليات تطوير السياسات ، لفهم التأثير المحتمل لهذه الأدوات الجديدة بشكل أفضل. لا يمكن القيام بذلك بعد أن تسببت الشركات بالفعل في حدوث ضرر أو ساهمت فيه.
ثالثًا ، يجب على مجتمع حقوق الإنسان نفسه أن يتقدم. في حالة عدم وجود لوائح لمنع وتخفيف الآثار الخطيرة المحتملة للذكاء الاصطناعي التوليدي ، ينبغي لمنظمات حقوق الإنسان أن تأخذ زمام المبادرة في تحديد الضرر الفعلي والمحتمل. وهذا يعني أن منظمات حقوق الإنسان يجب أن تساعد نفسها في بناء هيئة من الفهم العميق حول هذه الأدوات وتطوير البحث والدعوة والمشاركة التي تتوقع القوة التحويلية للذكاء الاصطناعي التوليدي.
الرضا عن النفس في مواجهة هذه اللحظة الثورية ليس خيارًا – لكن ليس أيًا منهما ، في هذا الصدد ، التشاؤم. لدينا جميعًا مصلحة في ضمان استخدام هذه التكنولوجيا الجديدة القوية لصالح البشرية. يعد تنفيذ نهج قائم على حقوق الإنسان لتحديد الضرر والاستجابة له خطوة أولى حاسمة في هذه العملية.
الآراء الواردة في هذا المقال هي آراء الكاتب ولا تعكس بالضرورة الموقف التحريري لقناة الجزيرة.