الاسبوع الماضي أمازون أعلنت شركة جوجل عن دمج الذكاء الاصطناعي في عدد من المنتجات – بما في ذلك النظارات الذكية وأنظمة المنزل الذكي ومساعدها الصوتي Alexa – التي تساعد المستخدمين على التنقل حول العالم. ستكشف Meta هذا الأسبوع عن أحدث ميزات الذكاء الاصطناعي والواقع الممتد (XR)، وستكشف Google في الأسبوع المقبل عن خطها التالي من هواتف Pixel المجهزة بـ Google AI. إذا كنت تعتقد أن الذكاء الاصطناعي كان “ثوريًا” بالفعل، فما عليك سوى الانتظار حتى يصبح جزءًا من الأجهزة الشخصية ذات الاستجابة الغامرة المتزايدة التي تدعم حياتنا.
يعمل الذكاء الاصطناعي بالفعل على تسريع اتجاه التكنولوجيا نحو المزيد من الانغماس، مما يطمس الحدود بين العالمين المادي والرقمي ويسمح للمستخدمين بإنشاء المحتوى الخاص بهم بسهولة. وعند دمجها مع تقنيات مثل الواقع المعزز أو الافتراضي، فإنها ستفتح عالمًا من الإمكانيات الإبداعية، ولكنها ستثير أيضًا قضايا جديدة تتعلق بالخصوصية والتلاعب والسلامة. في المساحات الغامرة، غالبًا ما تنسى أجسادنا أن المحتوى الذي نتفاعل معه هو محتوى افتراضي وليس ماديًا. هذا شيء عظيم لعلاج الألم وتدريب الموظفين. ومع ذلك، فهذا يعني أيضًا أن المضايقات والاعتداءات في الواقع الافتراضي يمكن أن تبدو حقيقية، وأن حملات التضليل والتلاعب أكثر فعالية.
يمكن أن يؤدي الذكاء الاصطناعي التوليدي إلى تفاقم التلاعب في البيئات الغامرة، مما يؤدي إلى إنشاء تدفقات لا نهاية لها من الوسائط التفاعلية المخصصة لتكون مقنعة أو خادعة قدر الإمكان. ولمنع حدوث ذلك، يجب على الهيئات التنظيمية تجنب الأخطاء التي ارتكبتها في الماضي والتحرك الآن لضمان وجود قواعد مناسبة للطريق لتطويرها واستخدامها. وبدون حماية كافية للخصوصية، فإن دمج الذكاء الاصطناعي في بيئات غامرة يمكن أن يؤدي إلى تضخيم التهديدات التي تشكلها هذه التقنيات الناشئة.
خذ معلومات خاطئة. مع كل البيانات الحميمة التي تم إنشاؤها في بيئات غامرة، يمكن للجهات الفاعلة التي لديها دوافع للتلاعب بالأشخاص أن تزيد من استخدامهم للذكاء الاصطناعي لإنشاء حملات تأثير مصممة خصيصًا لكل فرد. تُظهر إحدى الدراسات التي أجراها باحث الواقع الافتراضي الرائد جيريمي بيلينسون أنه من خلال التعديل الدقيق لصور وجوه المرشحين السياسيين لتبدو وكأنها ناخب معين، من الممكن جعل هذا الشخص أكثر عرضة للتصويت للمرشح. يتفاقم خطر التلاعب في البيئات الغامرة، والتي غالبًا ما تجمع البيانات المستندة إلى الجسم مثل حركة الرأس واليد. يمكن أن تكشف هذه المعلومات عن تفاصيل حساسة مثل التركيبة السكانية للمستخدم وعاداته وصحته، مما يؤدي إلى إنشاء ملفات تعريف تفصيلية لاهتمامات المستخدمين وشخصيتهم وخصائصهم. تخيل أن روبوت الدردشة في الواقع الافتراضي يقوم بتحليل البيانات المتعلقة بعاداتك على الإنترنت والمحتوى الذي تراه عيناك لتحديد الطريقة الأكثر إقناعًا لبيع منتج أو سياسي أو فكرة لك، كل ذلك في الوقت الفعلي.
إن التلاعب القائم على الذكاء الاصطناعي في البيئات الغامرة سيمكن الجهات الفاعلة الشريرة من إجراء حملات تأثير على نطاق واسع، ومصممة خصيصًا لكل مستخدم. نحن على دراية بالفعل بالمحتوى المزيف العميق الذي ينشر معلومات مضللة ويغذي المضايقات، والاستهداف الدقيق الذي يدفع المستخدمين نحو سلوكيات الإدمان والتطرف. العنصر الإضافي للانغماس يجعل من السهل التعامل مع الناس.
للتخفيف من المخاطر المرتبطة بالذكاء الاصطناعي في التقنيات الغامرة وتزويد الأفراد ببيئة آمنة لتبنيها، من الضروري توفير ضمانات واضحة وذات مغزى للخصوصية والأخلاقيات. يجب على صناع السياسات إقرار قوانين خصوصية قوية تحمي بيانات المستخدمين، وتمنع الاستخدامات غير المتوقعة لهذه البيانات، وتمنح المستخدمين المزيد من التحكم في ما يتم جمعه ولماذا. في هذه الأثناء، ومع عدم وجود قانون فيدرالي شامل للخصوصية، يجب على الهيئات التنظيمية مثل لجنة التجارة الفيدرالية الأمريكية (FTC) استخدام سلطة حماية المستهلك الخاصة بها لتوجيه الشركات بشأن أنواع الممارسات “غير العادلة والخادعة” في الأماكن الغامرة، لا سيما عندما الذكاء الاصطناعي متورط. وإلى أن يتم تقديم المزيد من القواعد التنظيمية الرسمية، ينبغي للشركات أن تتعاون مع الخبراء لتطوير أفضل الممارسات للتعامل مع بيانات المستخدم، وتنظيم الإعلانات على منصاتها، وتصميم تجارب غامرة مولدة بالذكاء الاصطناعي لتقليل خطر التلاعب.
وبينما ننتظر أن يلحق صناع السياسات بالركب، فمن الأهمية بمكان أن يتعلم الناس كيفية عمل هذه التكنولوجيات، والبيانات التي تجمعها، وكيفية استخدام تلك البيانات، والضرر الذي قد تسببه للأفراد والمجتمع. أصبحت التقنيات الغامرة المدعومة بالذكاء الاصطناعي جزءًا من حياتنا اليومية بشكل متزايد، وهي تغير طريقة تفاعلنا مع الآخرين والعالم من حولنا. ويحتاج الناس إلى التمكين لجعل هذه الأدوات تعمل بشكل أفضل بالنسبة لهم – وليس العكس.
رأي سلكي تنشر مقالات لمساهمين خارجيين يمثلون مجموعة واسعة من وجهات النظر. إقرأ المزيد من الآراء هنا. إرسال مقال افتتاحي في [email protected].