احصل على ملخص المحرر مجانًا
تختار رولا خلف، رئيسة تحرير صحيفة الفاينانشال تايمز، قصصها المفضلة في هذه النشرة الأسبوعية.
تخضع شركة جوجل للتحقيق من قبل هيئة مراقبة الخصوصية الأوروبية بشأن معالجتها للبيانات الشخصية في تطوير أحد نماذج الذكاء الاصطناعي الخاصة بها، حيث تكثف الجهات التنظيمية تدقيقها لطموحات الذكاء الاصطناعي لشركات التكنولوجيا الكبرى.
قالت لجنة حماية البيانات الأيرلندية، المسؤولة عن تطبيق اللائحة العامة لحماية البيانات في الاتحاد الأوروبي (GDPR)، إنها أطلقت تحقيقًا قانونيًا في نموذج Pathways Language Model 2، أو PaLM 2، الخاص بعملاق التكنولوجيا.
تم إطلاق PaLM 2 في مايو 2023 ويسبق أحدث طرازات Gemini من Google، والتي تعمل على تشغيل منتجات الذكاء الاصطناعي الخاصة بها. يعد Gemini، الذي تم إطلاقه في ديسمبر من نفس العام، الآن النموذج الأساسي وراء عرض إنشاء النصوص والصور.
سيقوم التحقيق بتقييم ما إذا كانت الشركة قد انتهكت التزاماتها بموجب اللائحة العامة لحماية البيانات فيما يتعلق بمعالجة البيانات الشخصية لمواطني الاتحاد الأوروبي والمنطقة الاقتصادية الأوروبية.
وبموجب هذا الإطار، يتعين على الشركات إجراء تقييم لأثر حماية البيانات قبل الشروع في التعامل مع هذه المعلومات عندما يكون من المرجح أن تشكل طريقة استخدامها خطراً كبيراً على حقوق وحريات الأفراد.
وقالت الهيئة التنظيمية في بيان إن هذا ينطبق بشكل خاص على التقنيات الجديدة وكان “ذو أهمية حاسمة في ضمان مراعاة وحماية الحقوق والحريات الأساسية للأفراد بشكل مناسب”.
ويجري حاليًا فحص التقييم في إطار التحقيق. ولم ترد جوجل على الفور على طلب التعليق.
هذه هي أحدث سلسلة من الإجراءات التي اتخذتها هيئة حماية البيانات ضد شركات التكنولوجيا الكبرى التي تعمل على بناء نماذج لغوية كبيرة.
في يونيو/حزيران، أوقفت شركة ميتا خططها لتدريب نموذجها Llama على المحتوى العام الذي يتشاركه البالغون على فيسبوك وإنستغرام في مختلف أنحاء أوروبا، وذلك بعد مناقشات مع الهيئة التنظيمية الأيرلندية. وفي وقت لاحق، قيدت ميتا توافر بعض منتجات الذكاء الاصطناعي الخاصة بها للمستخدمين في المنطقة.
وبعد مرور شهر، اكتشف مستخدمو موقع X أنهم “اختاروا” أن يتم استخدام منشوراتهم على الموقع لتدريب الأنظمة في شركة XAI الناشئة التابعة لإيلون موسك.
علقت المنصة معالجة بيانات المستخدمين الأوروبيين في أغسطس/آب لتدريب نموذجها للذكاء الاصطناعي Grok AI، بعد إجراءات قانونية اتخذتها هيئة حماية البيانات. وكانت هذه هي المرة الأولى التي تستخدم فيها الهيئة التنظيمية صلاحياتها لاتخاذ مثل هذا الإجراء ضد شركة تكنولوجيا.