أطلقت شركة Hume AI، وهي شركة ناشئة مقرها نيويورك، اليوم “واجهة صوتية متعاطفة” جديدة تجعل من الممكن إضافة مجموعة من الأصوات المعبرة عاطفياً، بالإضافة إلى أذن متناغمة عاطفياً، إلى نماذج لغوية كبيرة من Anthropic وGoogle وMeta وMistral وOpenAI – مما ينذر بعصر حيث قد يصبح مساعدو الذكاء الاصطناعي أكثر انفعالاً معنا بشكل روتيني.
يقول آلان كاون، المؤسس المشارك لشركة Hume AI، وهو عالم نفس شارك في تأليف عدد من أوراق البحث حول الذكاء الاصطناعي والعاطفة، والذي عمل سابقًا في مجال التقنيات العاطفية في Google وFacebook: “نحن متخصصون في بناء شخصيات متعاطفة تتحدث بالطريقة التي يتحدث بها الناس، بدلاً من الصور النمطية لمساعدي الذكاء الاصطناعي”.
وقد اختبرت مجلة WIRED أحدث تكنولوجيا صوتية من إنتاج هيوم، والتي تسمى EVI 2، ووجدت أن ناتجها مماثل لما طورته شركة OpenAI لبرنامج ChatGPT. (عندما منحت شركة OpenAI برنامج ChatGPT صوتًا غزليًا في شهر مايو/أيار، وصف الرئيس التنفيذي للشركة سام ألتمان الواجهة بأنها “تشبه الذكاء الاصطناعي في الأفلام”. وفي وقت لاحق، ادعت نجمة سينمائية حقيقية، سكارليت جوهانسون، أن شركة OpenAI انتحلت صوتها).
مثل ChatGPT، يتمتع Hume بقدرة أكبر على التعبير عن المشاعر مقارنة بأغلب واجهات الصوت التقليدية. فإذا أخبرته أن حيوانك الأليف قد مات، على سبيل المثال، فسوف يتبنى نبرة حزينة ومتعاطفة مناسبة. (كما هو الحال مع ChatGPT، يمكنك مقاطعة Hume أثناء تدفق الكلام، وسوف يتوقف ويتكيف مع استجابة جديدة).
لم تذكر OpenAI إلى أي مدى تحاول واجهة الصوت الخاصة بها قياس مشاعر المستخدمين، لكن واجهة Hume مصممة خصيصًا للقيام بذلك. أثناء التفاعلات، ستعرض واجهة المطور الخاصة بـ Hume قيمًا تشير إلى مقياس لأشياء مثل “العزيمة” و”القلق” و”السعادة” في صوت المستخدم. إذا تحدثت إلى Hume بنبرة حزينة، فسوف يلتقط ذلك أيضًا، وهو شيء لا يبدو أن ChatGPT يفعله.
كما يسهل Hume نشر صوت يحمل مشاعر محددة من خلال إضافة موجه إلى واجهة المستخدم الخاصة به. وهذا هو عندما طلبت منه أن يكون “مثيرًا ومغازلًا”:
وعندما قيل له أن يكون “حزينًا وكئيبًا”:
وهنا الرسالة البغيضة بشكل خاص عندما يُطلب منك أن تكون “غاضبًا ووقحًا”:
لم تبدو التكنولوجيا دائما مصقول وناعم ولكن في الوقت الحالي، لا يزال هذا الصوت يعمل بشكل جيد، كما هو الحال مع OpenAI، وقد تصرف أحيانًا بطرق غريبة. على سبيل المثال، في مرحلة ما، تسارع الصوت فجأة وبدأ ينطق بكلمات غير مفهومة. ولكن إذا كان من الممكن تحسين الصوت وجعله أكثر موثوقية، فسيكون لديه القدرة على المساعدة في جعل واجهات الصوت الشبيهة بالإنسان أكثر شيوعًا وتنوعًا.
تعود فكرة التعرف على المشاعر الإنسانية وقياسها ومحاكاتها في الأنظمة التكنولوجية إلى عقود من الزمن، وتُدرس في مجال يُعرف باسم “الحوسبة العاطفية”، وهو مصطلح قدمته روزاليند بيكارد، الأستاذة في مختبر الوسائط التابع لمعهد ماساتشوستس للتكنولوجيا، في تسعينيات القرن العشرين.
وقد أبدى ألبرت صلاح، الأستاذ بجامعة أوتريخت في هولندا والذي يدرس الحوسبة العاطفية، إعجابه بتكنولوجيا هيوم للذكاء الاصطناعي، وقد عرضها مؤخرًا على طلابه. ويقول: “يبدو أن ما تفعله EVI هو تعيين قيم التكافؤ العاطفي والإثارة (للمستخدم)، ثم تعديل كلام الوكيل وفقًا لذلك. إنها إضافة مثيرة للاهتمام للغاية إلى برامج الماجستير في القانون”.