قال موظف سابق رفيع المستوى في Google إنه تم اكتشاف “أنماط مرعبة” في منتجات Google الأساسية وافترض كيف يمكن أن يكون التحيز قد دخل إلى برنامج الدردشة الآلي الخاص بالذكاء الاصطناعي Gemini.
كلما كانت هناك مشكلة داخل أحد منتجات Google، فإن الشركة لديها نظام إبلاغ يسمى “Go Bad” والذي يمكن استخدامه لتوثيق المحتوى الذي يحتمل أن يكون ضارًا، وفقًا للمصدر.
على سبيل المثال، إذا كان أحد المستخدمين يستخدم بحث الصور من Google ووجد نتيجة مسيئة، فيمكنه تقديم تقرير، سواء داخليًا أو خارجيًا، والذي سيتم بعد ذلك توجيهه إلى فريق الثقة والسلامة المناسب.
وفي عام 2020، لم يفرق هذا النظام بين أنواع مختلفة من القضايا، مثل الهوية والتنوع والاندماج والتمييز، على حد قول الموظف السابق. لم يكن هناك فهرس للعثور على نوع واحد من المشكلات مقابل نوع آخر.
هل تريد Google أن يكون الناس “مستيقظين”؟ موظف سابق يكشف عن رد الشركة على ترامب وبايدن وBLM
“لذلك، فإن جميع التقارير المتعلقة بالعنف ومواد الاعتداء الجنسي على الأطفال (CSAM) والأشياء التي كانت مثل العنصرية أو الجنسية أو، كما تعلمون، معادية للمسيحية أو معادية لليهود أو معادية للمسلمين، كانت جميعها في نفس الوعاء”. قال موظف سابق في Google، تحدث مع Fox News Digital بشرط عدم الكشف عن هويته.
صرحت Google بأنها قامت دائمًا بفرز المشكلات ومعالجتها بشكل مختلف وقالت إن الادعاءات بأنها ستتعامل مع شيء مثل CSAM بنفس طريقة التعامل مع خطاب الكراهية هي “غير منطقية” و”خاطئة”.
ومن عام 2020 إلى عام 2022، قامت جوجل ببناء مخطط بيانات يمكنه تتبع وتحديد تلك المخاوف الفردية.
ومع ذلك، في عام 2022، تم إجراء تحليل ضخم للبيانات عبر جميع تقارير “الحالة السيئة” لما يزيد عن 30 منتجًا من منتجات Google، بما في ذلك Voice Assistant والأخبار.
وقال الموظف السابق إنه تم تقديم تقرير حول النتائج في وقت لاحق. تم الإدلاء ببيانات إلى Google للتعبير عن القلق بشأن كيفية عمل الخوارزمية الكامنة وراء هذه المنتجات بشكل أساسي بعد العثور على “أنماط مرعبة”.
وقال الموظف السابق إن خوارزميات جوجل الأساسية تعمل على تشغيل العديد من المنتجات المختلفة، مثل يوتيوب، وبحث جوجل، وبحث الصور من جوجل، وأخبار جوجل، مع إجراء تعديلات لكل حالة استخدام. تستخدم المنتجات الداخلية أيضًا أشكالًا مختلفة من هذه الخوارزمية، مما يجعلها، كما وصفها الموظف السابق، “صانع المال” للشركة.
اعترضت Google على هذا الحساب وذكرت أن هذا وصف خاطئ لتحسين التوجيه لإحدى قنوات الشركة العديدة للحصول على تعليقات حول المنتج. وقالوا أيضًا إنه لا توجد خوارزمية واحدة تقوم عليها جميع منتجات Google.
أجرت Google تغييرات جوهرية على خوارزميتها على مر السنين. في يونيو 2019، أعلنت الشركة عن تغييرات جديدة لبحث جوجل مصممة لتوفير “المزيد من التنوع في الموقع” في النتائج. ويعني هذا التغيير أن المستخدمين عادةً لن يروا أكثر من قائمتين من نفس الموقع في أفضل النتائج. تم أيضًا إجراء تغييرات أخرى في الترتيب.
وقالت جوجل إن هذه التحديثات تم إجراؤها لأن الأشخاص أرادوا رؤية نطاق أوسع من المواقع في نتائجهم.
في مايو 2023، أعلنت جوجل أنها تستخدم الذكاء الاصطناعي التوليدي لإضافة طرق جديدة “للعثور على وجهات نظر متنوعة واستكشافها على البحث”. أضافت التغييرات مرشح “المنظور” الذي يعرض المعلومات التي يشاركها الأشخاص على منصات التواصل الاجتماعي ولوحات المناقشة.
موظف سابق في GOOGLE: كيف يمكن لاجتماع “CODE RED” وCHTGPT LED تنفيذ “الاختصارات” في إطلاق GEMINI AI
وقالت الشركة أيضًا إن قدرات الذكاء الاصطناعي ستساعدها على جودة “الخبرة” كعنصر من عناصر المحتوى المفيد وستواصل Google التركيز على جودة المعلومات والسمات المهمة مثل الموثوقية والخبرة والجدارة بالثقة.
أعرب الموظف السابق عن قلقه من أن العديد من الادعاءات المتعلقة بزيادة التنوع وتفاصيل كيفية تصنيف المعلومات على Google كانت عامة للغاية. كانت المعلومات المقدمة علنًا تفتقر إلى معلومات مفصلة حول كيفية عمل الخوارزمية التي تقف وراء المنتجات.
ردت جوجل على التأكيد على أن التغييرات لم تكن شفافة، قائلة إنها تجري آلاف التحسينات على البحث كل عام وتحتفظ بموقع ويب عام يحتوي على معلومات مفصلة حول كيفية عمل البحث وكيفية تعامله مع التغييرات.
في وقت سابق من هذا العام، واجهت جوجل رد فعل عنيفًا شديدًا عندما أنتجت ميزة إنشاء الصور في برنامج Gemini AI chatbot أمثلة “متنوعة” لشخصيات تاريخية، بما في ذلك الآباء المؤسسون والباباوات. واعتذرت جوجل لاحقًا وأوقفت الميزة مؤقتًا، لكن كيف حدث ذلك؟
على مدى السنوات العديدة الماضية، أنشأت Google فريقين مختلفين من فرق البحث في مجال الذكاء الاصطناعي وقامت بتوسيع نطاقهما، وهما فريقي فهم الوسائط للاستكشاف الاجتماعي (MUSE) وSkin Tone، اللذان تم اعتمادهما في أكثر من 50 منتجًا من منتجات Google.
وفقًا لجوجل، فإن MUSE “تبني تقنية مدعومة بالذكاء الاصطناعي مصممة لفهم الأنماط في كيفية تصوير الأشخاص في وسائل الإعلام الرئيسية وإلهام محتوى أكثر إنصافًا.”
تم الإعلان عن لوحات ألوان البشرة المستخدمة في الأدوات والتطبيقات لتعزيز “مساواة الصورة” في مايو 2022.
وتقول جوجل إن المقياس الجديد مصمم ليكون أكثر “تمثيلاً” لجميع ألوان البشرة، ووجدت أن النموذج الجديد أكثر شمولاً من معيار صناعة التكنولوجيا الحالي “خاصة” للأشخاص ذوي ألوان البشرة الداكنة.
يقول مستشار سابق في GOOGLE إن الجوزاء هو ما يحدث عندما تصبح شركات الذكاء الاصطناعي “كبيرة جدًا في وقت مبكر جدًا”
وقال الموظف السابق إن زرع هذا المقياس والميزات الأخرى لتعزيز التنوع أمر منطقي في مواقف معينة. على سبيل المثال، إذا كنت تبحث عن ملابس الزفاف، فأنت تريد أن يكون هناك تنوع في الأشخاص الذين يرتدون الملابس لاستيعاب جميع الفئات.
الآن، لنفترض أن نموذج التنوع مدمج في خوارزميات البحث ولم يتم إيقاف تشغيله في النموذج التوليدي. في هذه الحالة، لن يتمكن الذكاء الاصطناعي من التمييز بين السياق التاريخي وسيقدم نتائج غير دقيقة. وأشار الموظف السابق إلى أن هذا هو على الأرجح ما حدث مع الجوزاء.
“إذا قلت أرني البابا وأريني رجلاً أسود، فسوف أشعر بالغضب. لكن إذا قلت أرني صورة لمجموعة من الأشخاص يلعبون وتظهر فقط الأشخاص البيض، وقال المصدر: “سأكون غاضبًا أيضًا”.
تراجعت Google عن التأكيد على أن هذا له علاقة بمشكلة صور Gemini وأشارت إلى منشور مدونة نُشر في فبراير يوضح ما يعتقدون أن المشكلة كانت عليه. وقالوا أيضًا إن العمل على لون البشرة لا يتداخل مع إنشاء صور الجوزاء ويهدف إلى القيام بأشياء مثل تحسين الإضاءة في الكاميرات على الهواتف.
“مرة أخرى، هذه هي الآراء المعاد صياغتها لموظف سابق واحد أخطأ في وصف كيفية عمل عملياتنا ومن الواضح أنه لم يكن لديه رؤية لكيفية اتخاذ القرارات. إن عملنا مبني على ثقة المستخدمين بنا لتقديم معلومات دقيقة، لذلك قمنا وقال متحدث باسم جوجل لـ Fox News Digital: “هدف تجاري واضح هو الحفاظ على منتجاتنا خالية من التحيز”.
يمكن أن يدخل التحيز أيضًا إلى نظام الذكاء الاصطناعي بطرق أخرى. نظرًا لأن هذه النماذج اللغوية الكبيرة (LLMs) تحتوي على كميات هائلة من النصوص المتصلة بالنظام لتدريبها، فإن شركات مثل Google لا تملك الأدوات أو الوقت لمراجعة جميع البيانات.
وبحسب الموظف السابق، فإن غياب مصطلحات أو هويات أو كلمات معينة يمكن أن يعني أن العارضة لها علاقة سلبية بها.
إذا تم إعطاء النموذج مجموعة من القصص عن العائلات، ولكن لا توجد أمثلة على الوالدين الوحيدين أو أن هذه المجموعة ممثلة تمثيلاً ناقصًا بشكل كبير في البيانات، فقد لا يكون قادرًا على إنشاء قصة عن عائلة بها والد واحد فقط.
“النماذج التوليدية ليست قواعد بيانات واقعية. ما هي إلا محركات تخمين رياضية. وهنا تصاب بالهلوسة لأنها مدربة على تلقي مطالبتك والتنبؤ بالكلمات التي يجب أن تأتي بعد ذلك بناءً على ما قدمته لها. سوف يقومون بـ- قال الموظف السابق: “- لأنهم لا يعرفون أن الأمور ليست على ما يرام”.
هل Google معطلة جدًا بحيث لا يمكن إصلاحها؟ المستثمرون “محبطون للغاية وغاضبون”، يحذر من الداخل السابق
تقوم نماذج اللغة بإنشاء التضمينات، التي تحدد الكلمات ذات السياقات أو الموضوعات الدلالية المتشابهة. على سبيل المثال، قد يتضمن موضوع القيادة الكلمات الملك والملكة والقلعة والحصان والخندق.
يأخذ الذكاء الاصطناعي هذا النص ويحوله إلى تمثيلات رقمية تسمى الرموز المميزة. ثم يقوم بإنشاء خريطة لما تعنيه اللغة (قاعدة بيانات المتجهات).
“على سبيل المثال، قم بإنشاء صورة لرجل، حسنًا؟ إنها لا تفهم في الواقع ما تقوله. ما تفعله هو أنها تستجيب لمطالبتك. إنها تبحث عبر قاعدة البيانات المضمنة لفهم المعنى. ثم تتنبأ رياضيًا بكل كلمة وأضاف المصدر أنه يجب أن يعود إليك.
قال الموظف السابق إن تحيز الذكاء الاصطناعي يمكن إصلاحه في ثلاثة أماكن ضمن النموذج: عدالة ما قبل المعالجة، وعدالة أثناء المعالجة، وعدالة ما بعد المعالجة.
عدالة المعالجة المسبقة هي التحقق من البيانات والتأكد من عدم وجود معلومات خاصة. وتستعد الشركة لتدريب النموذج.
يتم التحقق من العدالة أثناء المعالجة لمعرفة ما يتعلمه الذكاء الاصطناعي والتأكد من أنه لا يتعلم الأشياء الخاطئة ويتكيف وفقًا لذلك.
يمكن لشركات مثل Google خلق التحيز في عدالة ما بعد المعالجة من خلال “إصلاح السياسات”. وهذا يعني أن شركة التكنولوجيا تخبر الخوارزمية أن الصورة التي تعتبرها ضارة لا يمكن أن تظهر قبل نقطة معينة، مثل أول 10000 صورة.
GOOGLE GEMINI تستخدم الأوامر “غير المرئية” لتعريف “السمية” وتشكيل عالم الإنترنت: خبير رقمي
في الأدبيات الأكاديمية، يُطلق على عدالة ما بعد المعالجة اسم “التلاعب بالعدالة”. يحدث هذا عندما لا تتمكن الشركة أو لا ترغب في تغيير النموذج بناءً على البيانات التي دخلت فيه أو الارتباطات التي تعلمتها، لذلك يقوم الباحثون بتحرير الطريقة التي تستجيب بها للمخرجات. عادة ما يصف النقاد هذا عندما يتحدثون عن كيف يمكن للناس تغيير الإجابات التي يقدمها الذكاء الاصطناعي.
هذا ما يحدث عندما يقول نموذج الذكاء الاصطناعي مثل Gemini، وChatGPT، وCopilot، وGronk، وما إلى ذلك، إنه لا يمكنه توليد استجابة بناءً على شيء مثل العرق. النموذج نفسه لا يعرف ذلك. ادعى الموظف السابق أن هذه عبارة عن طبقة تم وضعها في النظام بين الذكاء الاصطناعي والأشخاص الذين يستخدمونه للتأكد من عدم تعرض الشركات للمشاكل.
“إذا قدم شخص ما مطالبة تتضمن استعلامات معينة، كما تعلمون، اجعلها افتراضية كاستجابة عامة، فهذا لا يعني أن النموذج لا يمكنه إنتاج الاستجابة، ولكنه قام بتحرير الطريقة التي تظهر بها للمستخدم قال الموظف السابق: “لجعل الأمر يبدو أكثر عدلاً”.
وأضافوا: “يبدو الأمر عادلاً، لكنه ليس عادلاً”.