سيتعين على الولايات المتحدة أن تقرر مدى صراحة رغبتها في السماح للجمهور بالوصول إلى الذكاء الاصطناعي (AI)، مما قد يؤثر على سياسات حماية البيانات الشاملة، بعد أن كشفت شركة مايكروسوفت أن جهات حكومية من دول منافسة استخدمت التكنولوجيا لتدريب عملائها.
“علينا إما أن نقرر ما إذا كنا سنبقي هذه الأشياء مفتوحة ويسهل الوصول إليها للجميع، وهو ما يعني للممثلين السيئين والجيدين، أو أننا سنتخذ مسارًا مختلفًا،” فيل سيجل، وقال مؤسس مركز الذكاء الاصطناعي غير الربحي للتأهب المتقدم ومحاكاة الاستجابة للتهديدات، لقناة فوكس نيوز ديجيتال.
حددت شركة OpenAI، في منشور مدونة مكتوب يوم الأربعاء، خمسة جهات فاعلة “خبيثة” تابعة للدولة: Charcoal Typhoon وSalmon Typhoon التابعتين للصين، وCrimson التابعة لإيران، وSandstorm التابعة لكوريا الشمالية، وEmerald Sleet وForest Blizzard التابعتين لروسيا.
وزعم المنشور أن المجموعات استخدمت خدمات OpenAI “للاستعلام عن معلومات مفتوحة المصدر، والترجمة، والعثور على أخطاء الترميز، وتشغيل مهام الترميز الأساسية”. على سبيل المثال، زُعم أن المجموعتين التابعتين للصين قامتا بترجمة الأوراق التقنية، وتصحيح الأخطاء البرمجية، وإنشاء النصوص البرمجية، ونظرتا في كيفية إخفاء العمليات في أنظمة إلكترونية مختلفة.
كيف يمكن للذكاء الاصطناعي التلاعب بالناخبين وتقويض الانتخابات مما يهدد الديمقراطية
ردًا على ذلك، اقترحت OpenAI نهجًا متعدد الجوانب لمكافحة هذا الاستخدام الضار لأدوات الشركة، بما في ذلك “مراقبة وتعطيل” الجهات الفاعلة الخبيثة من خلال التكنولوجيا الجديدة لتحديد أنشطة الجهات الفاعلة وإيقافها، وزيادة التعاون مع منصات الذكاء الاصطناعي الأخرى لاكتشاف الأنشطة الضارة وتحسينها. الشفافية العامة.
وكتب OpenAI: “كما هو الحال مع العديد من الأنظمة البيئية الأخرى، هناك عدد قليل من الجهات الفاعلة الخبيثة التي تتطلب اهتمامًا مستمرًا حتى يتمكن الجميع من الاستمرار في الاستمتاع بالفوائد”. “على الرغم من أننا نعمل على تقليل سوء الاستخدام المحتمل من قبل مثل هذه الجهات الفاعلة، إلا أننا لن نتمكن من إيقاف كل حالة”.
وأصرت الشركة على أنه “من خلال الاستمرار في الابتكار والتحقيق والتعاون والمشاركة، فإننا نجعل من الصعب على الجهات الفاعلة الخبيثة أن تظل غير مكتشفة عبر النظام البيئي الرقمي وتحسين تجربة أي شخص آخر”.
وقال سيجل إن هذه اللفتات، رغم حسن النية، لن تثبت فعاليتها في نهاية المطاف بسبب الافتقار إلى البنية التحتية الحالية التي تسمح لها بإحداث التأثير اللازم.
ما هو الذكاء الاصطناعي (AI)؟
وقال سيجل: “سيتعين علينا أن نقرر ما إذا كان هذا نظامًا مفتوحًا بالكامل أم أننا سنجعله مثل النظام المصرفي حيث توجد كل هذه البوابات في النظام التي تمنع حدوث هذه الأشياء”.
وأوضح قائلاً: “أنا متشكك لأن البنوك لديها مجموعة كاملة من البنية التحتية واللوائح التي تقف وراءها لتحقيق هذه الأشياء … وليس لدينا ذلك بعد”. “نحن نفكر في الأمر ونعمل عليه، ولكن إلى أن يتم وضع هذه الأشياء في مكانها الصحيح، فهذا ليس خطأ Microsoft أو خطأ Open A أو خطأ Google.”
وأضاف: “علينا فقط أن نتحرك بسرعة للتأكد من وضع هذه الأشياء في مكانها الصحيح حتى يتمكنوا من معرفة كيفية تنفيذ هذه الأنواع من الأشياء”.
دعت مايكروسوفت، في منشور مدونة منفصل، إلى اتخاذ بعض التدابير الإضافية – وهي “الإخطار” لمقدمي خدمات الذكاء الاصطناعي الآخرين للمساعدة في تحديد الأنشطة والبيانات ذات الصلة حتى يتمكنوا من التصرف على الفور مع نفس المستخدمين والعمليات.
رأي: إليك كيف سيقود الذكاء الاصطناعي الرعاية الصحية إلى تلبية توقعات المستهلكين
على الرغم من “الدفاعات التكميلية”، تعهدت Microsoft وOpenAI بحماية أنظمة الذكاء الاصطناعي القيمة إلى جانب المساعدة من MITRE لتطوير التدابير المضادة في “المشهد المتطور للعمليات السيبرانية التي تدعم الذكاء الاصطناعي”.
واعترفت مايكروسوفت بأن “نظام التهديد البيئي على مدى السنوات العديدة الماضية كشف عن موضوع ثابت يتمثل في اتباع الجهات الفاعلة في مجال التهديد لاتجاهات التكنولوجيا بالتوازي مع نظرائهم المدافعين”.
اقترح سيجل أن العمليات الموصوفة لن تمثل سوى بعض الأنشطة التي اتبعتها الجهات الخبيثة – مرة أخرى، بسبب عدم وجود أنظمة حالية مطبقة لالتقاط المجموعة الكاملة من الأنشطة – حيث يمكن للقراصنة استخدام أدوات التجسس وحتى “أشكال أخرى من التكنولوجيا” لتحقيق أهدافهم.
وقال سيجل: “هناك فقط عمل يجب القيام به، وأنا متشكك في أن OpenAI من Microsoft يمكنها القيام بذلك بمفردها دون مساعدة من الحكومة أو الوكالات الأخرى التي عملت بالفعل على تقنيات مثل هذه”.
لم تستجب وزارة الأمن الداخلي لطلب Fox News Digital للتعليق حتى وقت النشر.