أثار بعض الخبراء مخاوف من أن الذكاء الاصطناعي (AI) يمكن أن يكون له فجوة خاصة به بين الجنسين إذا لم يشارك المزيد من النساء في تطويره وتحليل مجموعة البيانات.
قالت الدكتورة جورجيانا شيا ، كبيرة التقنيين في مؤسسة الدفاع عن الديمقراطيات في مركز الدفاع عن الديمقراطيات والابتكار التكنولوجي (CCTI) ، لشبكة فوكس نيوز ديجيتال: “لا يتعلق الأمر فقط بالذكاء الاصطناعي ، لكنني أقول الهندسة ككل”. “عندما يكون هناك أي نوع من العمليات الهندسية لأي شيء ، لا تريد أن ينتهي بك الأمر مع مهندسين قائمين على التحيز.”
إضافة إلى النقاش ، قالت ميليندا فرينش جيتس ، الرئيس المشارك لمؤسسة بيل وميليندا جيتس ، مؤخرًا في مقابلة إنها تشعر بالقلق من وجود نقص في النساء العاملات في مجال الذكاء الاصطناعي ، الأمر الذي جعلها تشعر بالقلق حيال ذلك. التحيزات المحتملة في المنصات.
قال شيا إن المشكلة ذات شقين: لا يتطلب المجال المزيد من النساء للمساعدة في توجيه تطوير منصات الذكاء الاصطناعي فحسب ، بل إن مجموعات البيانات المستخدمة لإعلام وتدريب الذكاء الاصطناعي تستخدم بالفعل بيانات متحيزة.
شركات التأمين التي تستخدم الذكاء الاصطناعي في الإلغاء والعناية الواجبة وسط التهديدات السيبرانية
قال شيا: “هناك جانب آخر يتمثل في أن البيانات التي تم تضمينها في أنظمة الذكاء الاصطناعي تلك هي … (أنك) تتأكد من حصولك على البيانات المتعلقة بالنساء ، بما في ذلك فهم النساء لمقدار البيانات التي تمثلهن”.
استخدم شيا مثال مجال يهيمن عليه الجنس مثل التمريض ، حيث تشكل النساء منه ما يقرب من 86 ٪ من العمال ، والذي من المحتمل أن ينتقي بعد ذلك المعلومات التي تفضل النساء عند استخلاص النتائج حول مجال التمريض والصناعة ، مما يضع العمال الذكور في وضع غير موات لاستخدامهم. منصة ذكاء اصطناعي للحصول على المعلومات ذات الصلة.
“الرجال والنساء مختلفون من الناحية الفسيولوجية ، لذلك إذا كان لديك مجموعة من الرجال يختبرون عقارًا ما ، فربما يكون مؤشر كتلة الجسم أعلى أو أقل مما سيكون عليه لو كانت امرأة … هناك اختلافات أساسية فقط ، وبالتالي فإن البيانات نفسها ستظهر أن هذه هي الطريقة التي خرجت بها بناءً على مجموعة الاختبار هذه من الناس “.
يساعد احتلال إسرائيل للتكنولوجيا المتطورة في التفجير السيبراني والهجمات الإرهابية
أثارت النساء مخاوف بشأن كيفية تأثير التحيز الجنساني على الذكاء الاصطناعي لسنوات حتى الآن ، مع مناقشة Stanford Social Innovation Review للقضايا المحتملة في عام 2019: جادل المؤلفون بأن المؤسسات التي تتخذ القرارات بناءً على الذكاء الاصطناعي واستخدام التعلم الآلي تعاني من تحيز جنساني “واسع الانتشار” تأثيرات عميقة على رفاه المرأة وأمنها على المدى القصير والطويل.
يرجع جزء من ذلك إلى تصفية جميع البيانات في معالج واحد دون تصنيفها حسب الجنس والجنس ، مما يؤدي إلى “إخفاء الاختلافات المهمة … وإخفاء التمثيل الزائد المحتمل ونقص التمثيل”.
في صناعة التكنولوجيا ، تشكل النساء حوالي 28٪ من القوى العاملة في صناعة التكنولوجيا اعتبارًا من عام 2022 ، وفقًا لمجموعة بيانات من Zippia.com. علاوة على ذلك ، تشكل النساء حوالي 34.4٪ من القوة العاملة في أكبر شركات التكنولوجيا في الولايات المتحدة
قوة المبيعات ، فريق ديلويت الرقمي للذكاء الاصطناعي التوليدي
تشغل النساء 15٪ فقط من الوظائف الهندسية ، وتترك النساء صناعة التكنولوجيا بمعدل 45٪ أعلى من الرجال ، وفقًا لـ DataProt.
قارن شيا مجموعات البيانات المتحيزة بالمعدات العسكرية ، مثل دبابة أو مركبة مماثلة ، والتي تم تطويرها للرجال لأنهم وحدهم يمكن أن يخدموا في أدوار قتالية حتى قام الجيش بتغيير البروتوكول منذ حوالي 10 سنوات. مع الاندماج الكامل في عام 2015 ، كان على الجيش والمهندسين البدء في تجديد المركبات لتلائم الحد الأدنى من متطلبات الطول والوزن للمرأة من أجل السلامة.
وفقًا لشيا ، فإن المفتاح لضمان عدم تعثر أي منصة للذكاء الاصطناعي في هذه المشكلة هو النظر في سياق منصة الذكاء الاصطناعي.
“عليك أن تفهم ، لماذا نبني هذا النظام؟ ما هو الغرض؟ من الذي سيؤثر؟ ما نوع التوجيه الذي نحتاجه والذي لن يتضمن تلك التحيزات المجتمعية ، تلك التحيزات في البيانات التي قد تكون موجودة هناك؟” قالت.
وأضافت: “لذا عليك تحديد ذلك وإدراجه في العملية واستبعاد الجنس كعنصر للاختيار”.