يُحدث الذكاء الاصطناعي بالفعل ثورة في تطبيق القانون ، الذي طبق التكنولوجيا المتقدمة في تحقيقاته ، لكن “المجتمع لديه التزام أخلاقي للتخفيف من العواقب الضارة” ، كما جاء في دراسة حديثة.
إن الذكاء الاصطناعي في سنوات المراهقة ، كما قال بعض الخبراء ، لكن وكالات إنفاذ القانون تدمج بالفعل الشرطة التنبؤية والتعرف على الوجه والتقنيات المصممة لاكتشاف الطلقات النارية في تحقيقاتها ، وفقًا لتقرير جامعة ولاية كارولينا الشمالية الذي نُشر في فبراير.
استند التقرير إلى 20 مقابلة شبه منظمة مع متخصصين في إنفاذ القانون في ولاية كارولينا الشمالية ، وكيف يؤثر الذكاء الاصطناعي على العلاقات بين المجتمعات وسلطات الشرطة.
قال جيم برونيت ، مؤلف مشارك في الدراسة ومدير مبادرة قيادة السلامة العامة بولاية نورث كارولاينا: “وجدنا أن المشاركين في الدراسة لم يكونوا على دراية بالذكاء الاصطناعي ، أو بالقيود المفروضة على تقنيات الذكاء الاصطناعي”.
ربما تكون منظمة العفو الدولية قد منعت تفجير ماراثون في بوسطن ، ولكن مع المخاطر: مفوض الشرطة السابق
وقال: “شمل ذلك تقنيات الذكاء الاصطناعي التي استخدمها المشاركون في العمل ، مثل التعرف على الوجه وتقنيات الكشف عن الطلقات النارية”. “ومع ذلك ، أعرب المشاركون في الدراسة عن دعمهم لهذه الأدوات ، التي شعروا أنها ذات قيمة بالنسبة لإنفاذ القانون.”
ووفقًا للدراسة ، يعتقد مسؤولو إنفاذ القانون أن الذكاء الاصطناعي سيحسن السلامة العامة ، لكن يمكن أن يقوض الثقة بين الشرطة والمدنيين.
فشل التعرف على الوجه لدى منظمة العفو الدولية: ثلاث مرات في حل الذكاء للذكاء أخطأت
يأتي ذلك في وقت تتصارع فيه المدن الأمريكية مع هذه القضية المثيرة للانقسام سياسيًا المتمثلة في الحد من الجريمة مع استعادة ثقة الجمهور في أعقاب مقتل جورج فلويد على أيدي ضباط الشرطة الذين تعرضوا للعار.
قال إد ديفيس ، الذي كان مفوض الشرطة أثناء تفجير ماراثون بوسطن في عام 2013 ، لـ Fox News Digital AI “سيحسن التحقيقات في نهاية المطاف ويسمح بتقديم العديد من المجرمين الخطرين إلى العدالة”.
الذكاء الاصطناعي: أسئلة متكررة حول الذكاء الاصطناعي
وقال ديفيس إن الأمر ينطوي على مخاطر وعثرات ، وسيتمكن المجرمون من الوصول إلى نفس التكنولوجيا ، مما قد يؤثر سلبًا على تحقيقات الشرطة.
وتدعم نتائج الدراسة تعليقات المفوض الذي يحظى باحترام كبير.
قد تسمح اللوائح للصين بالسيطرة على سباق الذكاء الاصطناعي ، ويحذر الخبراء: “ سنخسر ”
وخلصت الدراسة إلى أن “صنع السياسات الذي يسترشد بالإجماع العام والمناقشات التعاونية مع المتخصصين في إنفاذ القانون يجب أن يهدف إلى تعزيز المساءلة من خلال تطبيق التصميم المسؤول للذكاء الاصطناعي في العمل الشرطي مع تحقيق حالة نهائية تتمثل في توفير الفوائد المجتمعية وتخفيف الضرر الذي يلحق بالسكان”.
“المجتمع عليه التزام أخلاقي للتخفيف من العواقب الضارة للدمج الكامل لتقنيات الذكاء الاصطناعي في إنفاذ القانون.”
ما هي الأنواع الأربعة الرئيسية للذكاء الاصطناعي؟ اكتشف كيف يمكن لبرامج الذكاء الاصطناعي المستقبلية أن تغير العالم
قال رونالد ديمبسي ، المؤلف الأول للدراسة وطالب دراسات عليا سابق في ولاية نورث كارولاينا ، إن جزءًا من المشكلة هو افتقار ضباط الشرطة للمعرفة العامة بقدرات الذكاء الاصطناعي وكيفية عملها.
وقال ديمبسي إن هذا “يجعل من الصعب أو المستحيل عليهم تقدير القيود والمخاطر الأخلاقية”. “يمكن أن يشكل ذلك مشاكل كبيرة لكل من إنفاذ القانون والجمهور.”
يقول “ عراب الذكاء الاصطناعي ” إن الذكاء الاصطناعي يقترب من أن يكون أكثر ذكاءً منا ، ويمكنه إنهاء الإنسانية
ازدهر استخدام أجهزة إنفاذ القانون للتعرف على الوجه بعد أحداث الشغب في 6 يناير 2021 في الكابيتول.
أفادت 20 وكالة من أصل 42 وكالة فيدرالية تم مسحها من قبل مكتب المساءلة الحكومية في عام 2021 أنها تستخدم التعرف على الوجه في التحقيقات الجنائية.
ووجدت الدراسة أنه إذا كانت تقنيات الذكاء الاصطناعي الناشئة “منظمة بشكل جيد ويتم تنفيذها بعناية ، فإن” سلعة السلامة العامة “يمكن أن تزيد ثقة المجتمع في عمل الشرطة ونظام العدالة الجنائية”.
“ومع ذلك ، أعرب المشاركون في الدراسة عن مخاوفهم بشأن مخاطر انحياز الخوارزمية (تحديات التنوع والتمثيل) ، والتحدي المتمثل في تكرار العامل البشري للتعاطف ، والمخاوف بشأن الخصوصية والثقة.
منظمة العفو الدولية “الهلوسة” الخرافات السياسية المتعمدة ، التحيزات التي أعادت كتابة التاريخ الأمريكي
تقول الدراسة: “بالإضافة إلى ذلك ، تظل تحديات العدالة والمساءلة والشفافية وقابلية التفسير كما هي معروضة في النقاش الأكاديمي الأوسع”.
تتمتع منظمة العفو الدولية بالقدرة على جسر أو تعميق الفجوة بين الشرطة والجمهور ، وفقًا للدراسة ، التي قالت إنه من الضروري أن يكون لقادة إنفاذ القانون مقعد على الطاولة لجميع المحادثات حول إطار عمل لكيفية استخدام الشرطة للتكنولوجيا.
قال Veljko Dubljević ، المؤلف المقابل للدراسة وأستاذ مشارك في جامعة ولاية كارولينا الشمالية ، إن المبادئ التوجيهية يمكن استخدامها لإبلاغ عملية صنع القرار في مجال الذكاء الاصطناعي.
قال Dubljevi “من المهم أيضًا أن نفهم أن أدوات الذكاء الاصطناعي ليست مضمونة”. “الذكاء الاصطناعي يخضع لقيود. وإذا لم يفهم مسؤولو إنفاذ القانون هذه القيود ، فقد يولون للذكاء الاصطناعي قيمة أكبر مما هو مبرر – وهو ما يمكن أن يشكل تحديات أخلاقية في حد ذاته.”
ما هي مخاطر الذكاء الاصطناعي؟
لقد ارتكبت الشرطة بالفعل أخطاء باستخدام التعرف على الوجه مما أدى إلى اعتقالات خاطئة.
حددت خوارزميات الذكاء الاصطناعي بشكل خاطئ الوجوه الأمريكية الأفريقية والآسيوية بنسبة 10 إلى 100 مرة أكثر من الوجوه البيضاء ، وفقًا لدراسة أجريت عام 2019 من قبل المعهد الوطني للمعايير والتكنولوجيا.
قال برونيت: “هناك دائمًا مخاطر عندما يتبنى تطبيق القانون تقنيات لم يتم تطويرها مع وضع تطبيق القانون في الاعتبار”.
“هذا ينطبق بالتأكيد على تقنيات الذكاء الاصطناعي مثل التعرف على الوجه. ونتيجة لذلك ، من المهم لمسؤولي إنفاذ القانون الحصول على بعض التدريب في الأبعاد الأخلاقية المحيطة باستخدام تقنيات الذكاء الاصطناعي هذه.”
كيف تخطط الولايات المتحدة والاتحاد الأوروبي والصين لتنظيم شركات برامج الذكاء الاصطناعي
أكدت الدراسة على خلق ثقافة شفافة للمساءلة توضح كيفية استخدام تقنيات الذكاء الاصطناعي في تحقيقات الشرطة.
أظهر تقرير حديث لصحيفة نيويورك تايمز حول اعتقال غير مشروع بناءً على التعرف على الوجه أن وثائق المحكمة وتقارير الشرطة لم تتضمن أي إشارة إلى استخدام تقنية الذكاء الاصطناعي ، وهي ممارسة يقال إنها أصبحت أكثر انتشارًا.
وقالت دراسة ولاية نورث كارولاينا: “كنقطة أخيرة ، يجب أن تكون تقنيات ضبط الأمن للذكاء الاصطناعي قابلة للتفسير ، على الأقل بشكل عام ، في كيفية التوصل إلى القرارات”.
“يجب أن يكون لدى المتخصصين في إنفاذ القانون ، على الأقل ، فهم واسع لتقنيات الذكاء الاصطناعي المستخدمة في ولاياتهم القضائية ونظام العدالة الجنائية ككل. التدريب الإجرائي لضباط الشرطة الذين يستخدمون تكنولوجيا الذكاء الاصطناعي.”
ركزت الدراسة على ولاية كارولينا الشمالية والمقصود منها أن تكون “لقطة” لاتجاه ناشئ وتتطلب المزيد من البحث والتعليم للمهنيين المكلفين بإنفاذ القانون.