تخشى شركة OpenAI من أن يبدأ الأشخاص في الاعتماد على ChatGPT كثيرًا من أجل الرفقة، مما قد يؤدي إلى “الاعتماد”، بسبب وضع الصوت البشري الجديد.
جاء هذا الكشف في تقرير صدر يوم الخميس من شركة OpenAI بشأن مراجعة السلامة التي أجرتها للأداة – والتي بدأت في طرحها للمستخدمين المدفوعين الأسبوع الماضي – ونموذج الذكاء الاصطناعي اللغوي الكبير الذي تعمل عليه.
يبدو وضع الصوت المتقدم في ChatGPT أشبه بالحياة بشكل ملحوظ. فهو يستجيب في الوقت الفعلي، ويمكنه التكيف مع المقاطعات، ويصدر أنواع الأصوات التي يصدرها البشر أثناء المحادثات مثل الضحك أو “هممم”. كما يمكنه الحكم على الحالة العاطفية للمتحدث بناءً على نبرة صوته.
وبعد دقائق من إعلان شركة OpenAI عن هذه الميزة في حدث أقيم في وقت سابق من هذا العام، تمت مقارنتها بالمساعد الرقمي للذكاء الاصطناعي في فيلم “Her” لعام 2013، والذي تقع بطلة الفيلم في حبه، لتنكسر قلبها عندما تعترف الذكاء الاصطناعي بأنها “لديها” أيضًا علاقات مع مئات المستخدمين الآخرين.
الآن، يبدو أن شركة OpenAI تشعر بالقلق من أن القصة الخيالية أصبحت قريبة جدًا من أن تصبح حقيقة، بعد أن قالت إنها لاحظت مستخدمين يتحدثون في وضع الصوت في ChatGPT بلغة “تعبر عن روابط مشتركة” مع الأداة.
وفي نهاية المطاف، “قد ينشئ المستخدمون علاقات اجتماعية مع الذكاء الاصطناعي، مما يقلل من حاجتهم إلى التفاعل البشري – وهو ما قد يفيد الأفراد الوحيدين ولكن قد يؤثر على العلاقات الصحية”، كما جاء في التقرير. ويضيف التقرير أن سماع معلومات من روبوت يبدو وكأنه إنسان قد يؤدي إلى ثقة المستخدمين في الأداة أكثر مما ينبغي، نظرًا لميل الذكاء الاصطناعي إلى ارتكاب الأخطاء.
ويسلط التقرير الضوء على المخاطر الكبيرة المحيطة بالذكاء الاصطناعي: إذ تتسابق شركات التكنولوجيا لطرح أدوات الذكاء الاصطناعي للجمهور بسرعة، والتي تقول إنها قد تقلب الطريقة التي نعيش بها، ونعمل بها، ونتواصل بها اجتماعيا، ونبحث بها عن المعلومات. لكنها تفعل ذلك قبل أن يفهم أي شخص حقا ما هي هذه الآثار المترتبة عليها. وكما هي الحال مع العديد من التطورات التكنولوجية، غالبا ما يكون لدى الشركات فكرة واحدة عن كيفية استخدام أدواتها، ولكن المستخدمين يتوصلون إلى مجموعة كاملة من التطبيقات المحتملة الأخرى، وغالبا ما تكون العواقب غير المقصودة.
وقد بدأ بعض الأشخاص بالفعل في تكوين ما يصفونه بالعلاقات الرومانسية مع روبوتات الدردشة التي تعمل بالذكاء الاصطناعي، مما أثار قلق خبراء العلاقات.
وفي مقابلة لها مع شبكة CNN في يونيو/حزيران، قالت ليزيل شرابي، أستاذة في جامعة ولاية أريزونا تدرس التكنولوجيا والتواصل البشري: “إنها مسؤولية كبيرة تقع على عاتق الشركات للتعامل مع هذا الأمر بطريقة أخلاقية ومسؤولة، وكل هذا في مرحلة تجريبية الآن. أنا قلقة بشأن الأشخاص الذين يشكلون روابط عميقة حقًا مع التكنولوجيا التي قد لا تكون موجودة على المدى الطويل والتي تتطور باستمرار”.
وقالت شركة OpenAI إن تفاعلات المستخدمين البشريين مع الوضع الصوتي في ChatGPT قد تؤثر أيضًا، بمرور الوقت، على ما يعتبر طبيعيًا في التفاعلات الاجتماعية.
وقالت الشركة في التقرير: “نماذجنا محترمة، وتسمح للمستخدمين بالمقاطعة و”أخذ الميكروفون” في أي وقت، وهو أمر متوقع من الذكاء الاصطناعي، ولكنه سيكون مخالفًا للمعايير في التفاعلات البشرية”.
وفي الوقت الحالي، تقول شركة OpenAI إنها ملتزمة ببناء الذكاء الاصطناعي “بشكل آمن”، وتخطط لمواصلة دراسة إمكانية “الاعتماد العاطفي” من قبل المستخدمين على أدواتها.