حذر خبير في الأمم المتحدة من اتجاه “مقلق” لـ “استخدام الخطاب الأمني” لتبرير “التقنيات المتطفلة وعالية الخطورة” ، بما في ذلك الذكاء الاصطناعي ، للتجسس على نشطاء الحقوق الاجتماعية والصحفيين.
دعت خبيرة الأمم المتحدة فيونوالا ني أولين إلى وقف تطوير الذكاء الاصطناعي ، من بين التقنيات المتقدمة الأخرى مثل الطائرات بدون طيار ، حتى “يتم تطبيق الضمانات الكافية” ، وفقًا لتقرير مارس 2023 التي تم تقديمها إلى مجلس حقوق الإنسان.
وقال ني أولين في بيان بعد إصدار التقرير: “غالبًا ما تتحول المبررات الاستثنائية لاستخدام تقنيات المراقبة في مكافحة الإرهاب” الخفيفة “إلى استخدام عادي عادي”.
وقالت إنه من دون إشراف ذي مغزى ، يمكن للبلدان والجهات الفاعلة الخاصة استخدام تقنية طاقة الذكاء الاصطناعي مع الإفلات من العقاب “تحت ستار منع الإرهاب”.
زيادة الاستثمار في السلامة العامة للذكاء الاصطناعي إلى 71 مليار دولار بحلول عام 2030 “للتنبؤ بالجرائم والكوارث الطبيعية”: تقرير
قال ني أولين ، الأستاذ بجامعة مينيسوتا والمقرر الخاص المعين من قبل مجلس حقوق الإنسان التابع للأمم المتحدة: “الممارسات التعسفية راسخة في مكافحة الإرهاب والتطرف العنيف”.
يُعد إنشاء حواجز حماية وضمانات للذكاء الاصطناعي مهمة شاقة تحاول الولايات المتحدة ، مثل العديد من الحكومات الأخرى في جميع أنحاء العالم ، معالجتها ، لكنها قضية يرى العديد من الخبراء أنها غير مسبوقة.
من يراقبك؟ يمكن للذكاء الاصطناعي أن يلاحق الضحايا غير الملتزمين بـ “السهولة والدقة”: الخبراء
زعم الخبراء أن الذكاء الاصطناعي التوليدي لديه القدرة على إنشاء مدينة فاضلة ، أو القدرة على إغراق بلد ما في عالم الواقع المرير.
قال كيفين باراجونا ، مؤسس DeepAI.org ، لـ Fox News Digital في مقابلة سابقة: “الذكاء الاصطناعي هو أحد أكثر القضايا تعقيدًا التي حاولنا تنظيمها على الإطلاق”. “بناءً على كفاح الحكومات الحالية لتنظيم قضايا أبسط ، يبدو من الصعب أن نكون متفائلين بأننا سنحصل على تشريعات معقولة.”
WATCH Fionnuala Ní Aoláin تخاطب مجلس حقوق الإنسان التابع للأمم المتحدة
ومع ذلك ، قال باراجونا إن حظره تمامًا ، كما حاولت إيطاليا في الأصل ، سيعيد الأمة إلى الوراء للقرن المقبل.
قال ني أولين: “في غياب التنظيم ، يمكن أن تزداد تكلفة حقوق الإنسان دون أن تلوح نهاية في الأفق”.
قد تكلف مخططات الغش بمساعدة الذكاء الاصطناعي دافعي الضرائب 1 تريليون دولار في عام واحد فقط ، كما يقول الخبراء
كان الذكاء الاصطناعي من بين عدد قليل من “التقنيات عالية الخطورة” التي ناقشتها. تم تقسيم الموضوع باعتباره القسم الفرعي الخاص به في التقرير المكون من 139 صفحة.
وكتبت في تقريرها: “يتمتع الذكاء الاصطناعي بخصائص التكنولوجيا ذات الأغراض العامة ، مما يعني أنه سيفتح فرصًا واسعة النطاق للتطبيق”.
شاهد أمثلة على كيفية عمل عمليات الاحتيال بمساعدة الذكاء الاصطناعي
يتم بالفعل تنفيذ التكنولوجيا في الإجراءات الاجتماعية والاقتصادية والسياسية والعسكرية ، ويتم دمجها في إنفاذ القانون والأمن القومي والعدالة الجنائية وأنظمة إدارة الحدود.
اختبرت عدة مدن في جميع أنحاء البلاد تطبيقات مختلفة للذكاء الاصطناعي في برامج تجريبية.
ما هي مخاطر الذكاء الاصطناعي؟ اكتشف سبب خوف الناس من الذكاء الاصطناعي
يوجد في قلب الذكاء الاصطناعي خوارزميات يمكنها إنشاء ملفات تعريف للأشخاص والتنبؤ بالحركات المستقبلية المحتملة من خلال استخدام كميات هائلة من البيانات – بما في ذلك المعلومات التاريخية والعدالة الجنائية والسفر والاتصالات ووسائل التواصل الاجتماعي والمعلومات الصحية.
ويمكنه أيضًا تحديد الأماكن على أنها “مواقع محتملة لزيادة النشاط الإجرامي أو الإرهابي” وتحديد الأفراد كمشتبه بهم مزعومين ومرتكبي الجرائم في المستقبل ، وفقًا لتقرير ني أولين.
وقالت: “إن الآثار المترتبة على الخصوصية وحقوق الإنسان لهذا النوع من جمع البيانات والنشاط التنبئي عميقة لكل من الحقوق القابلة للتقييد والحقوق غير القابلة للانتقاص”.
“تسلط المقررة الخاصة الضوء على انزعاجها العميق من تقييمات منظمة العفو الدولية التي تُستخدم لتحريك الدولة في سياقات مكافحة الإرهاب ، من البحث والاستجواب والاعتقال والملاحقة القضائية والتدابير الإدارية إلى مراقبة أعمق وأكثر تدخلاً.
“لا ينبغي أن تكون تقييمات الذكاء الاصطناعي وحدها أساس الشك المعقول بالنظر إلى طبيعتها الاحتمالية بطبيعتها”.