دعت هيئة استشارية فيدرالية وكالات الأمن الكندية إلى نشر أوصاف تفصيلية لاستخداماتها الحالية والمقصودة لأنظمة الذكاء الاصطناعي وتطبيقات البرامج.
وفي تقرير جديد، حثت مجموعة استشارات الشفافية في الأمن القومي الحكومة أيضًا على النظر في تعديل التشريعات التي ينظرها البرلمان لضمان الرقابة على كيفية استخدام الوكالات الفيدرالية للذكاء الاصطناعي.
وتعد هذه التوصيات من بين أحدث التدابير التي اقترحتها المجموعة، التي تم إنشاؤها في عام 2019 لزيادة المساءلة والوعي العام بسياسات وبرامج وأنشطة الأمن الوطني.
وتنظر الحكومة إلى المجموعة باعتبارها وسيلة مهمة لتنفيذ التزام اتحادي مكون من ست نقاط لتحقيق قدر أكبر من الشفافية بشأن الأمن القومي.
وردت وكالات الاستخبارات والأمن الفيدرالية على التقرير الأخير للمجموعة من خلال التأكيد على أهمية الانفتاح، على الرغم من أن البعض أشار إلى أن طبيعة عملهم تحد من ما يمكنهم الكشف عنه علناً.
وتستخدم وكالات الأمن بالفعل الذكاء الاصطناعي في مهام تتراوح من ترجمة المستندات إلى اكتشاف تهديدات البرامج الضارة. ويتوقع التقرير زيادة الاعتماد على التكنولوجيا لتحليل كميات كبيرة من النصوص والصور، والتعرف على الأنماط، وتفسير الاتجاهات والسلوكيات.
ومع توسع استخدام الذكاء الاصطناعي في مجتمع الأمن القومي، “فمن الضروري أن يعرف الجمهور المزيد عن أهداف وتعهدات” خدمات الحدود الوطنية والشرطة والتجسس، كما يقول التقرير.
“يجب تصميم وتنفيذ آليات مناسبة لتعزيز الانفتاح الشامل والاستباقي داخل الحكومة، مع تمكين الرقابة والمراجعة الخارجية بشكل أفضل.”
وبينما تتعاون الحكومة مع القطاع الخاص بشأن أهداف الأمن القومي، فإن “الانفتاح والمشاركة” يشكلان عوامل تمكينية حاسمة للابتكار والثقة العامة، في حين أن “السرية تولد الشكوك”، كما يقول التقرير.
إن التحدي الرئيسي في شرح العمليات الداخلية للذكاء الاصطناعي للعامة هو “غموض الخوارزميات ونماذج التعلم الآلي” – ما يسمى “الصندوق الأسود” والذي قد يعني أن حتى وكالات الأمن القومي تفقد فهم تطبيقات الذكاء الاصطناعي الخاصة بها، كما يشير التقرير.
أصدرت أوتاوا إرشادات بشأن الاستخدام الفيدرالي للذكاء الاصطناعي، بما في ذلك شرط إجراء تقييم للأثر الخوارزمي قبل إنشاء نظام يساعد أو يحل محل حكم صناع القرار البشري.
احصل على الأخبار الوطنية اليومية
احصل على أهم الأخبار اليومية، والعناوين السياسية والاقتصادية والشؤون الجارية، والتي يتم تسليمها إلى صندوق البريد الإلكتروني الخاص بك مرة واحدة يوميًا.
كما قدمت قانون الذكاء الاصطناعي والبيانات، والذي ينظره البرلمان حاليا، لضمان التصميم والتطوير والطرح المسؤول لأنظمة الذكاء الاصطناعي.
ومع ذلك، فإن القانون ومفوض الذكاء الاصطناعي الجديد لن يكون لديهما سلطة قضائية على المؤسسات الحكومية مثل وكالات الأمن، مما دفع المجموعة الاستشارية إلى التوصية بأن تنظر أوتاوا في توسيع نطاق القانون المقترح لتغطيتها.
لقد كانت مؤسسة أمن الاتصالات، وهي وكالة التجسس الإلكتروني في كندا، منذ فترة طويلة في طليعة استخدام علم البيانات لغربلة وتحليل كميات هائلة من المعلومات.
وتقول الوكالة إن تسخير قوة الذكاء الاصطناعي لا يعني إزالة البشر من العملية، بل تمكينهم من اتخاذ قرارات أفضل.
وفي أحدث تقرير سنوي لها، تصف CSE استخدام أجهزة الكمبيوتر العملاقة عالية الأداء لتدريب نماذج جديدة للذكاء الاصطناعي والتعلم الآلي، بما في ذلك أداة ترجمة مصممة خصيصًا.
تم تقديم الأداة، التي يمكنها ترجمة المحتوى من أكثر من 100 لغة، في أواخر عام 2022 وتم إتاحتها لشركاء الاستخبارات الأجانب الرئيسيين لكندا في العام التالي.
استخدم مركز الأمن السيبراني التابع لهيئة الأمن السيبراني أدوات التعلم الآلي للكشف عن حملات التصيد التي تستهدف الحكومة ورصد الأنشطة المشبوهة على الشبكات والأنظمة الفيدرالية.
ردًا على تقرير المجموعة الاستشارية، أشارت لجنة العلوم والهندسة إلى جهودها المختلفة للمساهمة في فهم الجمهور للذكاء الاصطناعي.
ومع ذلك، أشارت إلى أن CSE “تواجه قيودًا فريدة ضمن ولايتها لحماية الأمن القومي” والتي قد تشكل صعوبات في نشر تفاصيل استخدامها الحالي والمخطط للذكاء الاصطناعي.
“لضمان أن يظل استخدامنا للذكاء الاصطناعي أخلاقيًا، فإننا نعمل على تطوير نهج شاملة لحكم وإدارة ومراقبة الذكاء الاصطناعي وسنستمر في الاستفادة من أفضل الممارسات والحوار لضمان أن تعكس إرشاداتنا التفكير الحالي.”
ورحبت هيئة الاستخبارات الأمنية الكندية، التي تحقق في التهديدات بما في ذلك النشاط المتطرف والتجسس والتدخل الأجنبي، بتقرير مجموعة الشفافية.
وقالت خدمة الاستخبارات إن العمل جار لإضفاء الطابع الرسمي على الخطط والحوكمة المتعلقة باستخدام الذكاء الاصطناعي، مع مراعاة الشفافية في جميع الاعتبارات. لكنها أضافت: “نظرًا لتفويض جهاز الاستخبارات والأمن الكندي، هناك قيود مهمة على ما يمكن مناقشته علنًا من أجل حماية سلامة العمليات، بما في ذلك الأمور المتعلقة باستخدام الذكاء الاصطناعي”.
في عام 2021، وجد دانييل ثيرين، مفوض الخصوصية الفيدرالي في ذلك الوقت، أن الشرطة الملكية الكندية انتهكت القانون باستخدام برنامج متطور للتعرف على الوجه لجمع المعلومات الشخصية.
وقال ثيرين إن هناك إخفاقات خطيرة ومنهجية من جانب الشرطة الملكية الكندية في ضمان الامتثال لقانون الخصوصية قبل جمع المعلومات من شركة Clearview AI الأمريكية.
أتاحت تقنية Clearview AI جمع أعداد هائلة من الصور من مصادر مختلفة يمكن أن تساعد قوات الشرطة والمؤسسات المالية والعملاء الآخرين في تحديد هوية الأشخاص.
وسط القلق بشأن Clearview AI، أنشأت الشرطة الملكية الكندية برنامج Technology Onboarding لتقييم مدى امتثال تقنيات التجميع لتشريعات الخصوصية.
ويحث تقرير مجموعة الاستشارة المعنية بالشفافية الشرطة على إخبار الجمهور بالمزيد عن هذه المبادرة. “إذا كانت جميع الأنشطة التي يتم تنفيذها بموجب برنامج الإدماج سرية، فإن الشفافية سوف تستمر في المعاناة”.
وقالت الشرطة الملكية الكندية إنها تخطط لنشر مخطط شفافية قريبًا من شأنه أن يوفر نظرة عامة على المبادئ الأساسية لبرنامج التوجيه للاستخدام المسؤول للتقنيات، بالإضافة إلى تفاصيل حول الأدوات التي قام البرنامج بتقييمها.
وقالت الشرطة الجبلية الكندية إنها تعمل أيضًا على تطوير سياسة وطنية بشأن استخدام الذكاء الاصطناعي والتي ستشمل وسيلة لضمان الشفافية بشأن الأدوات والضمانات.
كما تنتقد مجموعة الاستشارات المعنية بالشفافية الحكومة بسبب افتقارها إلى التقارير العامة عن التقدم أو الإنجازات التي حققتها في مجال التزامها بالشفافية. وتوصي بإجراء مراجعة رسمية للالتزام من خلال “التقارير العامة عن المبادرات التي تم اتخاذها، والتأثيرات التي تحققت حتى الآن، والأنشطة التي سيتم تنفيذها في المستقبل”.
وقالت وزارة السلامة العامة في كندا إن التوصيات المختلفة التي تضمنها التقرير تمت مشاركتها مع نائب وزير الوزارة ومجتمع الأمن الوطني الأوسع، بما في ذلك اللجان ذات الصلة.
ومع ذلك، لم تذكر الإدارة ما إذا كانت توافق على التوصيات أو تقدم جدولاً زمنياً لتنفيذها.