بدلاً من ذلك ، يقول هذا الشعار القليل عن ما تفعله الشركة وأكثر عن سبب قيامها بذلك. تمتلئ إعلانات وظائف Helsing بالمثالية ، حيث تدعو الأشخاص الذين لديهم قناعة بأن “القيم الديمقراطية تستحق الحماية”.
يتحدث مؤسسو هيلسينج الثلاثة عن الغزو الروسي لشبه جزيرة القرم في عام 2014 كنداء إيقاظ يجب على أوروبا بأسرها أن تكون مستعدة للرد على العدوان الروسي. يقول رييل: “لقد أصبحت قلقًا بشكل متزايد لأننا نتخلف عن التقنيات الرئيسية في مجتمعاتنا المفتوحة”. نما هذا الشعور عندما شاهد ، في عام 2018 ، احتجاج موظفي Google على صفقة مع البنتاغون ، والتي كانت ستساعد فيها Google الجيش على استخدام الذكاء الاصطناعي لتحليل لقطات الطائرات بدون طيار. وقع أكثر من 4000 موظف خطابًا يجادلون فيه بأنه من غير المسؤول أخلاقياً وأخلاقياً أن تساعد Google في المراقبة العسكرية ، ونتائجها المميتة المحتملة. رداً على ذلك ، قالت Google إنها لن تجدد العقد.
يقول ريل: “أنا فقط لم أفهم منطق ذلك”. “إذا أردنا أن نعيش في مجتمعات منفتحة وحرة ، فكن من نريد أن نكون ونقول ما نريد أن نقوله ، فنحن بحاجة إلى أن نكون قادرين على حمايتها. لا يمكننا أن نأخذها كأمر مسلم به “. لقد كان قلقًا من أنه إذا تم ثني Big Tech ، بكل مواردها ، عن العمل مع صناعة الدفاع ، فإن الغرب سيتخلف حتماً عن الركب. “شعرت وكأنهم إذا لم يفعلوا ذلك ، إذا لم يكن أفضل مهندسي Google مستعدين للعمل على هذا ، فمن يكون؟”
عادة ما يكون من الصعب معرفة ما إذا كانت المنتجات الدفاعية تعمل بالطريقة التي يقول منشئوها أنها تعمل بها. تزعم الشركات التي تبيعها ، بما في ذلك هيلسينج ، أنها ستعرض فعالية أدواتها للخطر لتكون شفافة بشأن التفاصيل. لكن بينما نتحدث ، يحاول المؤسسون تقديم صورة لما يجعل الذكاء الاصطناعي متوافقًا مع الأنظمة الديمقراطية التي يريد بيعها. يقول شيرف: “نحن نقدر حقًا الخصوصية والحرية كثيرًا ، ولن نفعل أبدًا أشياء مثل التعرف على الوجوه” ، مدعيًا أن الشركة تريد مساعدة الجيوش في التعرف على الأشياء ، وليس الأشخاص. “هناك أشياء معينة ليست ضرورية لمهمة الدفاع.”
لكن الأتمتة الزاحفة في صناعة مميتة مثل الدفاع لا تزال تثير قضايا شائكة. إذا كان كل ما تقدمه أنظمة هيلسينج هو زيادة الوعي بميدان المعركة الذي يساعد الجيوش على فهم مكان الأهداف ، فهذا لا يمثل أي مشاكل ، كما يقول هربرت لين ، الباحث البارز في مركز الأمن والتعاون الدولي بجامعة ستانفورد. لكنه يعتقد أنه بمجرد وضع هذا النظام ، سيتعرض صانعو القرار لضغوط لربطه بأسلحة مستقلة. يقول لين: “يتعين على صانعي السياسات مقاومة فكرة القيام بذلك” ، مضيفًا أن البشر ، وليس الآلات ، يحتاجون إلى المساءلة عند حدوث أخطاء. إذا قتلت منظمة العفو الدولية جرارًا بدلاً من شاحنة أو دبابة ، فهذا أمر سيء. من الذي سيتحمل المسؤولية عن ذلك؟ “
يصر رييل على أن هيلسينج لا يصنع أسلحة مستقلة. يقول: “نحن نصنع العكس”. “نصنع أنظمة ذكاء اصطناعي تساعد البشر على فهم الموقف بشكل أفضل.”
على الرغم من أن المشغلين يمكنهم استخدام منصة Helsing لإسقاط طائرة بدون طيار ، إلا أن الإنسان في الوقت الحالي هو من يتخذ هذا القرار ، وليس الذكاء الاصطناعي. لكن هناك تساؤلات حول مقدار الاستقلالية التي يتمتع بها البشر حقًا عندما يعملون عن كثب مع الآلات. يقول جنسن من مركز الدراسات الاستراتيجية والدولية: “كلما قللت من جعل المستخدمين يفهمون الأدوات التي يعملون بها ، فإنهم يعاملونها مثل السحر” ، مدعيًا أن هذا يعني أن المستخدمين العسكريين يمكن أن يثقوا في الذكاء الاصطناعي كثيرًا أو قليلًا جدًا.