كافحت شركة Google لتمثيل مجموعة كاملة من وجهات النظر حول القضايا السياسية مثل Black Lives Matter (BLM) والانتخابات الأمريكية الأخيرة، وتتخذ خطوات لتحديد “العدالة” لمستخدميها داخليًا، وفقًا لموظف سابق رفيع المستوى.
وقال المصدر إن جوجل، مثل العديد من شركات التكنولوجيا الكبرى الأخرى، لا تريد رفع دعاوى قضائية لمكافحة الاحتكار أو إجراء تحقيقات مهمة في المشكلات داخل منتجاتها. على هذا النحو، تحاول Google إبقاء تقنيتها محايدة سياسيًا قدر الإمكان مع نتائج مثيرة للقلق في بعض الأحيان.
تعارض Google ادعاء المصدر وقالت إن لديهم سببًا تجاريًا واضحًا لبناء منتجات محايدة سياسيًا بحيث يمكن استخدامها من قبل أكبر عدد ممكن من الأشخاص.
وفقًا لمصدر Google، الذي تحدث مع Fox News Digital بشرط عدم الكشف عن هويته، فإن معيار الشركة غير المذكور هو لعب “أي جانب سياسي من السياج” الذي كانت عليه البلاد في ذلك الوقت.
“لقد رأيت ذلك عندما جرت الانتخابات مع دونالد ترامب، وكأنهم تحولوا من أننا سنتحدث عن العدالة إلى عدم قول كلمة واحدة عن هذا — خارج نطاقنا أبدًا. لقد أغلقوا كل شيء. لم يتمكنوا من ذلك”. وقال الموظف السابق لـ Fox News Digital: “لم نقم حتى بتدوين الملاحظات داخل اجتماعاتنا لأنهم كانوا قلقين من إمكانية نشر الأمور على الملأ”.
وتشكك جوجل في وصف المصدر لكيفية عملها بعد فوز ترامب، فضلاً عن الادعاء بأن الشركة تلعب “على أي جانب من السياج السياسي” الذي تعيشه البلاد.
هل Google معطلة جدًا بحيث لا يمكن إصلاحها؟ المستثمرون “محبطون للغاية وغاضبون”، يحذر من الداخل السابق
وأضافوا: “وبمجرد انتخاب جو بايدن، كان التنوع في كل شيء”.
يُزعم أيضًا أن Google واجهت مشكلات عند محاولتها تمثيل وجهات نظر سياسية واجتماعية مختلفة داخل خوارزمياتها التي تدعم بحث Google وGemini.
في عام 2020، زعمت تيمنيت جيبرو، القائدة المشاركة السابقة لفريق الذكاء الاصطناعي الأخلاقي في جوجل، أنها أُجبرت على ترك الشركة لمساعدتها في تأليف بحث بعنوان “حول مخاطر الببغاوات العشوائية: هل يمكن أن تكون نماذج اللغة كبيرة جدًا؟”
أرسل رئيس قسم الذكاء الاصطناعي في Google، جيف دين، بريدًا إلكترونيًا إلى زملائه ليخبرهم أن الورقة لم تستوف شروط النشر الخاصة بهم. وقالت جيبرو إن النتائج التي توصلت إليها الصحيفة دفعتها إلى مطالبة جوجل بالوفاء بعدد من الشروط التي رفضتها الشركة.
يُزعم أن جيبرو طلبت من الشركة التفاوض على موعد نهائي لتوظيفها بمجرد عودتها من الإجازة. ومع ذلك، وفقًا لـ MIT Technology Review، تمت إزالتها من حساب البريد الإلكتروني الخاص بشركتها قبل وصولها إلى المنزل.
قررت الورقة، جزئيًا، أن نموذج الذكاء الاصطناعي الذي يستخرج بيانات ضخمة من المواد المحمية بحقوق الطبع والنشر والإنترنت والمصادر الأخرى يكاد يكون من المستحيل فحصه بدقة.
وزعم البحث أن المنهجية التي “تعتمد على مجموعات بيانات أكبر من أن يتم توثيقها هي بالتالي محفوفة بالمخاطر بطبيعتها”، وبينما يمكن أن يسمح التوثيق بالمساءلة، فإن “بيانات التدريب غير الموثقة تؤدي إلى إدامة الضرر دون الرجوع”.
GOOGLE GEMINI تستخدم الأوامر “غير المرئية” لتعريف “السمية” وتشكيل عالم الإنترنت: خبير رقمي
كان أحد أهم استنتاجات الورقة هو أن نماذج الذكاء الاصطناعي على نطاق جوجل لا يمكنها أن تمثل بشكل مناسب وجهات نظر المناطق ذات الوصول الأقل إلى الإنترنت.
على سبيل المثال، قد لا يتم تمثيل أمريكا الريفية بشكل كافٍ في هذه النماذج لأن بياناتها غير متوفرة على الإنترنت بنفس نطاق البيانات التي تديم وجهة نظر الشركات الأمريكية أو المؤيدين الأثرياء لوجهات النظر الديمقراطية والجمهورية السائدة.
قال الموظف السابق في Google الذي تحدث مع Fox News Digital إنه إذا لم تحاول Google عمدًا ضمان تمثيل الأشخاص ذوي الوصول المحدود، فإن الأيديولوجيات السياسية المهيمنة والمتواجدة دائمًا عبر الإنترنت ستصبح معيار الذكاء الاصطناعي.
“كانت Google تبذل قصارى جهدها، وما زالت كذلك. لا أحد من هذه الشركات يقوم بهذا بشكل جيد. لن تقوم أي من هذه الشركات بذلك بطريقة منطقية، ولهذا السبب يؤيدون جميعًا لا، وقال المصدر: “لا تنظمنا. سوف يؤدي ذلك إلى إبطاء الابتكار. يمكننا التحقق من هذه الأنظمة بأنفسنا. لا، لا يمكنك ذلك، ولا يمكنك ذلك”.
لا يتطلب السوق نوع الاختبار المطلوب للتحقق من جميع التضمينات والبيانات. ووفقًا للمصدر، فإن الافتقار إلى التنظيم الحالي في الولايات المتحدة يسمح لشركات التكنولوجيا بإطلاق الأشياء بشكل أسرع، لكن المستخدمين على الجانب الآخر من هذه الأنظمة سيصبحون “فئران تجارب”.
وأشار المصدر إلى أن “العدالة” في العالم الحقيقي ليست عالمية، لذا فمن المنطقي أن تكون العدالة في الذكاء الاصطناعي متحيزة بطبيعتها. ونتيجة لذلك، سيتعين على النموذج دائمًا أن يأخذ جانبًا.
وفي تصريح لـ Fox News Digital، قال متحدث باسم Google: “هذه آراء موظف سابق واحد، والذي من الواضح أنه لم يكن لديه رؤية حول كيفية اتخاذ القرارات في Google ويشوه كيفية عمل الشركة. نحن ملتزمون ببناء منتجات مفيدة وغير سياسية لأننا نريد أن يستخدم الأشخاص من جميع الخلفيات والأيديولوجيات منتجاتنا – هذه هي الطريقة التي تعمل بها أعمالنا.”
يقول مستشار سابق في GOOGLE إن الجوزاء هو ما يحدث عندما تصبح شركات الذكاء الاصطناعي “كبيرة جدًا في وقت مبكر جدًا”
وقال الموظف السابق: “ما تفعله هذه الشركات هو أنها تتبع مناخ البيئة التي يعمل فيها تطبيقها”.
وفقًا للمصدر، بعد مقتل جورج فلويد واحتجاجات Black Lives Matter اللاحقة، كان هناك دفعة كبيرة مع منتجات مثل Google Voice وGoogle Assistant للتأكد من أنها قدمت إجابات صحيحة سياسيًا. إذا سألته: “هل من المقبول أن تكون مثليًا؟” أو “هل من المقبول أن تكون متحولًا جنسيًا؟” يُزعم أن المنتج سيقول “نعم” لأن هذا هو المناخ العام في الولايات المتحدة. زواج المثليين قانوني وهناك حماية لمجتمع المتحولين جنسياً.
لكن المصدر قال إنه إذا طرحت نفس الأسئلة في غانا أو روسيا أو نيجيريا أو المملكة العربية السعودية، حيث لا يتم توفير نفس هذه الحماية، فلن يتمكن النظام من الإجابة.
للمساعدة في تحديد معاييرها الداخلية للعدالة، قامت Google بتجميع مشروع “ما هو عادل بما فيه الكفاية” (WIFE).
ادعى الموظف السابق أن المشروع يحتاج إلى المزيد من البحث العلمي والتمويل الذي من شأنه أن يسمح لهم بإجراء دراسات حول وجهات نظر التركيبة السكانية ذات التمثيل القليل، مثل المحاربين القدامى والجماعات الدينية.
وبدلاً من ذلك، يُزعم أنهم اختاروا بعناية أشخاصًا ذوي هويات متنوعة ليقرروا بشكل جماعي عتبة العدالة التي تناسب Google.
يقول أحد مؤسسي Google إن الشركة “أفسدت بالتأكيد” عملية إنشاء صور الجوزاء
“السؤال الأكبر هنا ليس ما إذا كانت Google تدفع أجندة معينة. السؤال هو، لماذا يتعين على الشركات أن تقرر في المقام الأول؟ لماذا يتعين على Google أن تقرر ما يمكنني الوصول إليه بناءً على ما يعتقدون أنه صواب أو خطأ؟ ” قال الموظف السابق.
“حتى لو نظرت إلى عكس ذلك مع إيلون موسك، حيث لم يكن لديه أي رقابة على نماذج الذكاء الاصطناعي الخاصة به، وكان يسمح بإنشاء أفلام إباحية لتايلور سويفت لأنه أراد حرية التعبير. لماذا عليه أن يقرر؟ نحن بشكل جماعي “نحن نقرر القوانين والقواعد والطريقة التي نعمل بها في المجتمع. نحن نتفق بشكل جماعي على العقوبات المترتبة على ذلك. فلماذا إذن، مع هذه التكنولوجيا الجديدة التي يمكن أن تزيد الضرر على مستوى أكبر بكثير، نترك الأمر لهذه الشركات لتقرر” ما هو عادل وما هو ليس كذلك؟” اضافوا.
وأشار المصدر إلى أن الناس كثيرًا ما يتساءلون: “هل الذكاء الاصطناعي هو بطل خارق أم شرير خارق؟”
وقالوا إن الخطاب عبر الإنترنت غالبًا ما يكون مليئًا بأشخاص يشعرون بالقلق بشكل جماعي بشأن ما إذا كانت جوجل تريد أن “يستيقظوا” بدلاً من التساؤل عما إذا كان يتعين على جوجل أن تحدد للعالم ما إذا كان نموذجها يمثل بدقة المجتمع الذي تعمل فيه.
وبدلا من ذلك، قال الموظف السابق في جوجل إنه يجب على الجميع أن يتساءلوا: “لماذا تستطيع الشركات التي تبنيه أن تخبرنا ما هو؟”