تحقق لجنة التجارة الفيدرالية في OpenAI بشأن الانتهاكات المحتملة لقانون حماية المستهلك ، وتسعى للحصول على سجلات مستفيضة من الشركة المصنعة لـ ChatGPT حول معالجتها للبيانات الشخصية ، وقدرتها على منح المستخدمين معلومات غير دقيقة و “مخاطر الإضرار بالمستهلكين ، بما في ذلك الإضرار بالسمعة. ”
يهدد التحقيق بتعقيد علاقة شركة أوبن إيه آي مع صانعي السياسات ، الذين أذهل الكثير منهم تكنولوجيا الشركة ورئيسها التنفيذي ، سام التمان. كما يمكن أن تركز مزيدًا من الاهتمام على دور OpenAI في نقاش واسع النطاق حول التهديد الذي قد يشكله الذكاء الاصطناعي التوليدي على الوظائف والأمن القومي والديمقراطية.
في طلب استقصائي من 20 صفحة هذا الأسبوع ، طلبت لجنة التجارة الفيدرالية من شركة OpenAI الرد على عشرات الطلبات التي تتراوح من كيفية حصولها على البيانات التي تستخدمها لتدريب نماذجها اللغوية الكبيرة إلى أوصاف “قدرة ChatGPT على إنشاء بيانات عن أفراد حقيقيين خاطئة. أو تضليل أو تحقير “.
تم الإبلاغ عن الوثيقة لأول مرة من قبل صحيفة واشنطن بوست يوم الخميس ، وأكد شخص مطلع على الأمر صحتها لشبكة سي إن إن. لم ترد شركة OpenAI على الفور على طلب للتعليق. رفضت لجنة التجارة الفيدرالية التعليق.
طلب الحصول على المعلومات ، الذي يعتبر نوعًا من مذكرات الاستدعاء الإدارية ، يسعى أيضًا للحصول على شهادة من OpenAI حول أي شكاوى تلقاها من الجمهور ، وقوائم الدعاوى القضائية التي تشارك فيها ، وتفاصيل تسرب بيانات 2020 الذي قالت الشركة إنه حدث مؤقتًا. كشف تاريخ الدردشة وبيانات الدفع للمستخدمين.
إنه يدعو إلى وصف كيفية اختبار OpenAI وتعديلها ومعالجتها لخوارزمياتها ، خاصة لإنتاج استجابات مختلفة أو للاستجابة للمخاطر ، وبلغات مختلفة. يطلب الطلب أيضًا من الشركة شرح أي خطوات اتخذتها لمعالجة حالات “الهلوسة” ، وهو مصطلح صناعي يصف النتائج حيث ينتج عن الذكاء الاصطناعي معلومات خاطئة.
يعد تحقيق لجنة التجارة الفيدرالية أوضح مثال حتى الآن على التنظيم المباشر للحكومة الأمريكية للذكاء الاصطناعي ، حيث يكافح المشرعون في الكونجرس من أجل التعجيل بصناعة سريعة التطور قبل دفعة متوقعة في الخريف لصياغة تشريعات جديدة تؤثر على هذا القطاع. لقد تخلفت جهود الولايات المتحدة إلى حد كبير عن صانعي السياسة العالميين الآخرين. على سبيل المثال ، يتجه المشرعون في الاتحاد الأوروبي نحو وضع اللمسات الأخيرة على التشريعات التاريخية التي تحظر استخدام الذكاء الاصطناعي للشرطة التنبؤية وتطبق قيودًا على سيناريوهات الاستخدام عالية المخاطر.
يأتي تحقيق لجنة التجارة الفيدرالية (FTC) بعد تحذيرات الوكالة المتكررة للشركات بعدم تقديم ادعاءات محمومة حول الذكاء الاصطناعي أو إساءة استخدام التكنولوجيا بطرق تمييزية.
وقالت في منشورات مدونة وملاحظات عامة إن الشركات التي تستخدم الذكاء الاصطناعي ستتحمل المسؤولية عن أي ممارسات غير عادلة ومضللة مرتبطة بالتكنولوجيا. بصفتها أكبر هيئة رقابة لحماية المستهلك في البلاد ، فإن لجنة التجارة الفيدرالية تتمتع بصلاحية مقاضاة انتهاكات الخصوصية والتسويق غير الصادق والأضرار الأخرى.
جادلت رئيسة لجنة التجارة الفيدرالية لينا خان بأن تفويض الكونجرس الحالي للوكالة يوفر سلطة واسعة للجنة التجارة الفيدرالية لمقاضاة الاستخدامات المسيئة للذكاء الاصطناعي. على سبيل المثال ، في حين أن الذكاء الاصطناعي يمكن أن يساعد في عمليات الاحتيال والاحتيال “التوربينية” ، فإن FTC لديها بالفعل تاريخ طويل في الإنفاذ ضد المحتالين ، كما أخبر خان المشرعين في أبريل.
كتب خان في مقال افتتاحي في صحيفة نيويورك تايمز في الشهر التالي: “على الرغم من أن هذه الأدوات جديدة ، إلا أنها ليست مستثناة من القواعد الحالية ، وستقوم لجنة التجارة الفيدرالية (FTC) بإنفاذ القوانين التي نتولى إدارتها بقوة ، حتى في هذا السوق الجديد”.
قدم بعض منتقدي OpenAI شكوى سابقًا إلى لجنة التجارة الفيدرالية (FTC) بدعوى أن التحيز الخوارزمي ومخاوف الخصوصية وميل ChatGPT إلى الهلوسة قد ينتهك قانون حماية المستهلك الأمريكي.
كانت شركة OpenAI صريحة بشأن بعض القيود المفروضة على منتجاتها. على سبيل المثال ، يوضح المستند التعريفي التمهيدي المرتبط بأحدث إصدار من GPT ، GPT-4 ، أن النموذج قد “ينتج محتوى غير منطقي أو غير صادق فيما يتعلق بمصادر معينة”. تقدم OpenAI أيضًا إفصاحات مماثلة حول إمكانية أن تؤدي أدوات مثل GPT إلى تمييز واسع النطاق ضد الأقليات أو الفئات الضعيفة الأخرى.