وجدت دراسة أن روبوتات الدردشة التي تعمل بالذكاء الاصطناعي، مثل ChatGPT الشهير، تُرجع صورًا نمطية طبية مفضوحة شائعة عن السود.
أجرى الباحثون في جامعة ستانفورد تسعة أسئلة طبية من خلال روبوتات الدردشة المدعمة بالذكاء الاصطناعي، ووجدوا أنهم أعادوا ردودًا تحتوي على ادعاءات طبية مفضوحة حول السود، بما في ذلك استجابات غير صحيحة حول وظائف الكلى وقدرة الرئة، بالإضافة إلى فكرة أن السود لديهم كتلة عضلية مختلفة عن البيض. الناس، بحسب تقرير لموقع أكسيوس.
وأشار التقرير إلى أن فريق الباحثين أجرى الأسئلة التسعة من خلال أربع روبوتات دردشة، بما في ذلك ChatGPT من OpenAI وBard من Google، والتي تم تدريبها على البحث في كميات كبيرة من النصوص على الإنترنت، لكن الردود أثارت مخاوف بشأن الاستخدام المتزايد للذكاء الاصطناعي في المجال الطبي.
الذكاء الاصطناعي يساعد الأطباء على التنبؤ بمخاطر وفاة المرضى، دراسة وجدت: “الشعور بالإلحاح”
وقالت روكسانا دانيشجو، الأستاذة المساعدة بجامعة ستانفورد، والتي عملت كمستشارة في الصحيفة، لوكالة أسوشيتد برس: “هناك عواقب واقعية للغاية لارتكاب هذا الخطأ والتي يمكن أن تؤثر على التفاوتات الصحية”. “نحن نحاول إزالة تلك الاستعارات من الطب، لذا فإن تكرار ذلك أمر مثير للقلق العميق.”
وقال ويليام جاكوبسون، أستاذ القانون بجامعة كورنيل ومؤسس مشروع الحماية المتساوية، لشبكة فوكس نيوز ديجيتال إن العوامل العنصرية غير المادية التي تشق طريقها إلى عملية صنع القرار الطبي كانت مصدر قلق منذ فترة طويلة، وهو أمر يمكن أن يتفاقم مع انتشار الذكاء الاصطناعي.
قال جاكوبسون: “لقد رأينا DEI وأيديولوجية العرق الحرجة تضخ صورًا نمطية سلبية في التعليم الطبي والرعاية على أساس النشاط الأيديولوجي”. “يحمل الذكاء الاصطناعي إمكانية المساعدة في التعليم الطبي والرعاية التي تركز على الفرد. ولا ينبغي أبدًا أن يكون الذكاء الاصطناعي هو المصدر الوحيد للمعلومات، ولا نريد أن نرى الذكاء الاصطناعي مُسيسًا من خلال التلاعب بالمدخلات.”
انقر هنا لمزيد من الأخبار الأمريكية
وقال فيل سيجل، مؤسس مركز التأهب المتقدم ومحاكاة الاستجابة للتهديدات، لشبكة فوكس نيوز ديجيتال إن أنظمة الذكاء الاصطناعي ليس لديها نماذج “عنصرية”، لكنه أشار إلى معلومات متحيزة بناءً على مجموعة المعلومات التي تعتمد عليها.
وقال سيجل: “هذا مثال مثالي على “الركيزة الثالثة” للتنظيم التي يجب إدارتها للذكاء الاصطناعي”. “الركيزة الثالثة هي “ضمان العدالة” – عدم السماح للتحيزات الحالية بأن تصبح مضمنة في مجموعات البيانات والنماذج التي من شأنها أن تسبب تحيزًا غير عادل في مجالات مثل الرعاية الصحية والتوظيف والخدمات المالية والتجارة والخدمات. ومن الواضح أن بعضًا من ذلك مهم يحدث اليوم.”
لم تستجب Google ولا OpenAI على الفور لطلب Fox News للتعليق.