ألقى محاميان اعتذاريان الرد على قاض غاضب في محكمة مانهاتن الفيدرالية باللوم على ChatGPT يوم الخميس لخداعهما لإدراج بحث قانوني وهمي في ملف محكمة.
يواجه المحاميان ستيفن أ.شوارتز وبيتر لودوكا عقوبة محتملة بسبب رفع دعوى قضائية ضد شركة طيران تضمنت إشارات إلى قضايا قضائية سابقة اعتقد شوارتز أنها حقيقية ، ولكن في الواقع اخترعها برنامج الدردشة الآلي المدعوم بالذكاء الاصطناعي.
أوضح شوارتز أنه استخدم البرنامج الرائد في البحث عن سوابق قانونية تدعم قضية عميل ضد شركة الطيران الكولومبية أفيانكا بسبب إصابة حدثت في رحلة طيران عام 2019.
تم العثور على CHATGPT لتقديم مشورة طبية أفضل من الأطباء الحقيقيين في الدراسة العمياء: “هذا سيكون تغيير اللعبة”
اقترح برنامج chatbot ، الذي أبهر العالم بإنتاجه إجابات شبيهة بالمقالات للمطالبات من المستخدمين ، العديد من الحالات التي تنطوي على حوادث الطيران التي لم يتمكن شوارتز من العثور عليها من خلال الأساليب المعتادة المستخدمة في مكتب المحاماة الخاص به.
كانت المشكلة أن العديد من هذه الحالات لم تكن حقيقية أو تتعلق بشركات طيران غير موجودة.
وقال شوارتز لقاضي المحكمة الجزئية الأمريكية بي. كيفين كاستل إنه “يعمل تحت مفهوم خاطئ … أن هذا الموقع كان يحصل على هذه القضايا من بعض المصادر التي لم أتمكن من الوصول إليها.”
وقال إنه “فشل فشلاً ذريعاً” في إجراء أبحاث المتابعة للتأكد من صحة الاستشهادات.
قال شوارتز: “لم أفهم أن ChatGPT يمكنها اختلاق القضايا”.
استثمرت Microsoft حوالي مليار دولار في OpenAI ، الشركة التي تقف وراء ChatGPT.
إن نجاحه ، الذي أظهر كيف يمكن للذكاء الاصطناعي أن يغير طريقة عمل البشر وتعلمهم ، قد ولّد مخاوف لدى البعض. وقع المئات من قادة الصناعة خطابًا في مايو يحذرون فيه من أن “التخفيف من خطر الانقراض من الذكاء الاصطناعي يجب أن يكون أولوية عالمية إلى جانب المخاطر المجتمعية الأخرى مثل الأوبئة والحرب النووية”.
بدا القاضي كاستل محيرًا ومنزعجًا من الحدث غير المعتاد وخيب أمله لأن المحامين لم يتصرفوا بسرعة لتصحيح الاستشهادات القانونية الزائفة عندما تم تنبيههم لأول مرة بالمشكلة من قبل محامي شركة Avianca والمحكمة. أشارت أفيانكا إلى السوابق القضائية الزائفة في ملف مارس / آذار.
واجه القاضي شوارتز بقضية قانونية واحدة اخترعها برنامج الكمبيوتر. تم وصفها في البداية على أنها قضية وفاة غير مشروعة رفعتها امرأة ضد شركة طيران فقط لتتحول إلى دعوى قانونية حول رجل فاتته رحلة إلى نيويورك واضطر إلى تحمل نفقات إضافية.
“هل يمكننا أن نتفق على أن هذا هراء قانوني؟” سأل كاستل.
سيجعل الذكاء الاصطناعي الإنسان أكثر إبداعًا ، ولن يحل محله ، ويتوقع تنفيذي الترفيه
قال شوارتز إنه اعتقد خطأً أن العرض المربك نتج عن مقتطفات مأخوذة من أجزاء مختلفة من القضية.
عندما انتهى كاستل من استجوابه ، سأل شوارتز عما إذا كان لديه أي شيء آخر ليقوله.
وقال شوارتز “أود أن أعتذر بصدق”.
وأضاف أنه عانى شخصيا ومهنيا نتيجة الخطأ الفادح وشعر “بالحرج والإذلال والندم الشديد”.
قال إنه هو والشركة التي كان يعمل فيها – ليفيدو وليفيدو وأوبرمان – قد وضعوا إجراءات وقائية لضمان عدم حدوث أي شيء مماثل مرة أخرى.
قال لودوكا ، المحامي الآخر الذي عمل في القضية ، إنه يثق بشوارتز ولم يراجع بشكل كاف ما جمعه.
بعد أن قرأ القاضي أجزاءً من إحدى القضايا التي تم الاستشهاد بها بصوت عالٍ لإظهار مدى سهولة تمييز أنها كانت “رطانة” ، قال لودوكا: “لم يخطر ببالي مطلقًا أن هذه قضية مزيفة”.
قال إن النتيجة “تؤلمني بلا نهاية”.
وقال رونالد مينكوف ، محامي شركة المحاماة ، للقاضي إن الطلب “نتج عن الإهمال وليس سوء النية” ولا ينبغي أن يؤدي إلى عقوبات.
وقال إن المحامين مروا تاريخياً بأوقات عصيبة مع التكنولوجيا ، وخاصة التكنولوجيا الجديدة ، “ولم يصبح الأمر أسهل”.
قال مينكوف: “السيد شوارتز ، الشخص الذي بالكاد يقوم بأبحاث فيدرالية ، اختار استخدام هذه التكنولوجيا الجديدة. كان يعتقد أنه يتعامل مع محرك بحث قياسي”. “ما كان يفعله هو اللعب بالذخيرة الحية.”
قال دانيال شين ، الأستاذ المساعد ومساعد مدير الأبحاث في مركز التكنولوجيا القانونية والمحكمة في كلية وليام وماري للقانون ، إنه قدم قضية Avianca خلال مؤتمر الأسبوع الماضي الذي جذب العشرات من المشاركين شخصيًا وعبر الإنترنت من الولاية والفيدرالية. المحاكم في الولايات المتحدة ، بما في ذلك محكمة مانهاتن الفيدرالية.
وقال إن الموضوع أثار الصدمة والارتباك في المؤتمر.
وقال شين “نحن نتحدث عن المنطقة الجنوبية لنيويورك ، المنطقة الفيدرالية التي تتعامل مع القضايا الكبرى ، 11 سبتمبر لجميع الجرائم المالية الكبيرة”. “كانت هذه أول حالة موثقة لسوء سلوك مهني محتمل من قبل محامٍ باستخدام الذكاء الاصطناعي التوليدي.”
وقال إن القضية أوضحت كيف قد لا يفهم المحامون كيفية عمل ChatGPT لأنها تميل إلى الهلوسة ، وتتحدث عن أشياء خيالية بطريقة تبدو واقعية ولكنها ليست كذلك.
وقال شين: “إنه يسلط الضوء على مخاطر استخدام تقنيات الذكاء الاصطناعي الواعدة دون معرفة المخاطر”.
قال القاضي إنه سيصدر حكمًا بالعقوبات في وقت لاحق.