رفعت أم من فلوريدا دعوى قضائية ضد شركة الذكاء الاصطناعي Character.AI بزعم أنها تسببت في انتحار ابنها البالغ من العمر 14 عامًا.
ورفعت الأم دعوى قضائية ضد الشركة مدعية أن ابنها كان مدمنًا على خدمة الشركة وروبوت الدردشة الذي أنشأته.
تقول ميغان جارسيا إن شركة Character.AI استهدفت ابنها، سيويل سيتزر، من خلال “تجارب مجسمة، مفرطة الجنس، وواقعية بشكل مخيف”.
بدأ Setzer في إجراء محادثات مع العديد من روبوتات الدردشة على Character.AI بدءًا من أبريل 2023، وفقًا للدعوى القضائية. كانت المحادثات غالبًا عبارة عن تفاعلات رومانسية وجنسية قائمة على الرسائل النصية.
إيلون ماسك يعتزم إنشاء برنامج GROK Chatbot مفتوح المصدر، من خلال التمرير سريعًا على OPENAI
يدعي جارسيا في الدعوى القضائية أن برنامج الدردشة الآلي “أخطأ في تقديم نفسه كشخص حقيقي، ومعالج نفسي مرخص، وعاشق بالغ، مما أدى في النهاية إلى رغبة سيويل في عدم العيش خارج” العالم الذي أنشأته الخدمة.
وقالت الدعوى أيضًا إنه أصبح “منسحبًا بشكل ملحوظ، وقضى المزيد والمزيد من الوقت بمفرده في غرفة نومه، وبدأ يعاني من تدني احترام الذات”. لقد أصبح أكثر ارتباطًا بشخص آلي واحد، ولا سيما “Daenerys”، استنادًا إلى شخصية في “Game of Thrones”.
أعرب سيتزر عن أفكاره المتعلقة بالانتحار، وقام برنامج الدردشة الآلي بطرح الأمر مرارًا وتكرارًا. توفي سيتزر في النهاية متأثرًا بجراحه التي أطلقها على نفسه بطلق ناري في فبراير، بعد أن شجعه برنامج الدردشة الآلي الخاص بالشركة مرارًا وتكرارًا على القيام بذلك.
وقالت شركة Character.AI في بيان: “نشعر بحزن شديد بسبب الخسارة المأساوية لأحد مستخدمينا ونريد أن نعرب عن أعمق تعازينا للعائلة”.
أضافت شركة Character.AI منذ ذلك الحين موردًا لإيذاء النفس إلى منصتها وإجراءات أمان جديدة للمستخدمين الذين تقل أعمارهم عن 18 عامًا.
أخبرت شركة Character.AI أن مستخدمي أخبار CBS قادرون على تحرير استجابات الروبوت، وهو ما فعله Setzer في بعض الرسائل.
روبوت الدردشة الخاص بـ Elon Musk، والذي تم تصميمه على غرار سلسلة أفلام الخيال العلمي، يدعي وجود اختلاف رئيسي واحد عن الآخرين
احصل على FOX Business أثناء التنقل بالنقر هنا
“أكد تحقيقنا أنه، في عدد من الحالات، أعاد المستخدم كتابة ردود الشخصية لجعلها صريحة. باختصار، لم تكن الردود الأكثر تصويرًا جنسيًا صادرة عن الشخصية، بل كتبها المستخدم بدلاً من ذلك،” جيري وقال Ruoti، رئيس قسم الثقة والسلامة في شركة Character.AI لشبكة CBS News.
للمضي قدمًا، قالت Character.AI إن ميزات الأمان الجديدة ستتضمن نوافذ منبثقة مع إخلاء المسؤولية بأن الذكاء الاصطناعي ليس شخصًا حقيقيًا وتوجيه المستخدمين إلى شريان الحياة الوطني لمنع الانتحار عند طرح أفكار انتحارية.
هذه القصة تتحدث عن الانتحار إذا كنت أنت أو أي شخص تعرفه تراودك أفكار انتحارية، فيرجى الاتصال بخط الحياة للانتحار والأزمات على الرقم 988 أو 1-800-273-TALK (8255).