ومع ذلك، يقول إلكوك: “لن يمر وقت طويل قبل أن يصبح من الممكن استخدام هذه التكنولوجيا لمراقبة الموظفين”.
الرقابة الذاتية
يشكل الذكاء الاصطناعي التوليدي العديد من المخاطر المحتملة، ولكن هناك خطوات يمكن للشركات والموظفين الأفراد اتخاذها لتحسين الخصوصية والأمان. أولاً، لا تضع معلومات سرية في مطالبة لأداة متاحة للعامة مثل ChatGPT أو Gemini من Google، كما تقول ليزا أفوكاتو، نائبة رئيس التسويق والمجتمع في شركة البيانات Sama.
عند صياغة مطالبة، كن عامًا لتجنب مشاركة الكثير. وتقول: “اسأل، “اكتب نموذج مقترح لنفقات الميزانية”، وليس “هذه هي ميزانيتي، اكتب مقترحًا للإنفاق على مشروع حساس”.” “استخدم الذكاء الاصطناعي كمسودتك الأولى، ثم قم بإضافة المعلومات الحساسة التي تحتاج إلى تضمينها.”
إذا كنت تستخدمه لأغراض البحث، فتجنب مشكلات مثل تلك التي تظهر مع Google’s AI Overviews من خلال التحقق من صحة ما يقدمه، كما يقول Avvocato. “اطلب منه تقديم مراجع وروابط لمصادره. إذا طلبت من الذكاء الاصطناعي كتابة التعليمات البرمجية، فلا تزال بحاجة إلى مراجعتها، بدلاً من افتراض أنها جاهزة للتنفيذ.
صرحت Microsoft بنفسها أن برنامج Copilot يحتاج إلى التهيئة بشكل صحيح ويجب تطبيق “الامتياز الأقل” – المفهوم القائل بأن المستخدمين يجب أن يكون لديهم حق الوصول إلى المعلومات التي يحتاجون إليها فقط. وهذه “نقطة حاسمة”، كما يقول روبنسون من شركة بريزم إنفوسيك. “يجب على المؤسسات أن تضع الأساس لهذه الأنظمة، وليس فقط أن تثق في التكنولوجيا وتفترض أن كل شيء سيكون على ما يرام.”
ومن الجدير بالذكر أيضًا أن ChatGPT يستخدم البيانات التي تشاركها لتدريب نماذجه، إلا إذا قمت بإيقاف تشغيله في الإعدادات أو استخدام إصدار المؤسسة.
قائمة الضمانات
تقول الشركات التي تدمج الذكاء الاصطناعي في منتجاتها إنها تفعل كل ما في وسعها لحماية الأمن والخصوصية. تحرص Microsoft على توضيح اعتبارات الأمان والخصوصية في منتج الاستدعاء الخاص بها والقدرة على التحكم في الميزة الإعدادات > الخصوصية والأمان > الاستدعاء واللقطات.
تقول Google إن الذكاء الاصطناعي التوليدي في Workspace “لا يغير إجراءات حماية الخصوصية الأساسية لدينا لمنح المستخدمين الاختيار والتحكم في بياناتهم”، وتنص على عدم استخدام المعلومات للإعلان.
تؤكد شركة OpenAI على كيفية الحفاظ على الأمان والخصوصية في منتجاتها، بينما تتوفر إصدارات المؤسسات مع عناصر تحكم إضافية. “نريد أن تتعرف نماذج الذكاء الاصطناعي لدينا على العالم، وليس على الأفراد، ونتخذ خطوات لحماية بيانات الأشخاص وخصوصيتهم،” هذا ما قاله متحدث باسم OpenAI لـ WIRED.
تقول OpenAI إنها توفر طرقًا للتحكم في كيفية استخدام البيانات، بما في ذلك أدوات الخدمة الذاتية للوصول إلى المعلومات الشخصية وتصديرها وحذفها، بالإضافة إلى القدرة على إلغاء الاشتراك في استخدام المحتوى لتحسين نماذجها. لم يتم تدريب فريق ChatGPT وChatGPT Enterprise وواجهة برمجة التطبيقات الخاصة به على البيانات أو المحادثات، ولا تتعلم نماذجه من الاستخدام افتراضيًا، وفقًا للشركة.
وفي كلتا الحالتين، يبدو أن زميلك في العمل الذي يعمل بالذكاء الاصطناعي موجود ليبقى. يقول وولفين إنه مع ازدياد تطور هذه الأنظمة وانتشارها في كل مكان في مكان العمل، فإن المخاطر سوف تتفاقم. “إننا نشهد بالفعل ظهور الذكاء الاصطناعي متعدد الوسائط مثل GPT-4o الذي يمكنه تحليل وإنشاء الصور والصوت والفيديو. لذا، لا يقتصر الأمر الآن على البيانات النصية فقط التي يتعين على الشركات أن تقلق بشأن حمايتها.
ومع أخذ ذلك في الاعتبار، يحتاج الأشخاص والشركات إلى التفكير في التعامل مع الذكاء الاصطناعي مثل أي خدمة أخرى تابعة لجهة خارجية، كما يقول وولفين. “لا تشارك أي شيء لا ترغب في بثه للعامة.”