أصدرت لجنة التجارة الفيدرالية (FTC) تحذيرًا بشأن احتمال إساءة استخدام المعلومات الحيوية للمستهلكين فيما يتعلق بالتقنيات الناشئة مثل الذكاء الاصطناعي التوليدي (AI) والتعلم الآلي.
بيان سياسة نشرته FTC حذر الأسبوع الماضي من أن الاستخدام الواسع الانتشار للبيانات الحيوية للمستهلكين ، بما في ذلك التقنيات المدعومة بالتعلم الآلي والذكاء الاصطناعي ، يشكل مخاطر على خصوصية المستهلكين وبياناتهم. المعلومات البيومترية هي البيانات التي تصور أو تصف السمات والخصائص الجسدية أو البيولوجية أو السلوكية ، بما في ذلك قياسات جسد الشخص المحدد أو البصمة الصوتية للشخص.
قال صمويل ليفين ، مدير مكتب حماية المستهلك في لجنة التجارة الفيدرالية: “في السنوات الأخيرة ، أصبحت المراقبة الحيوية أكثر تعقيدًا وانتشارًا ، مما يشكل تهديدات جديدة للخصوصية والحقوق المدنية”. “بيان السياسة اليوم يوضح أن الشركات يجب أن تمتثل للقانون بغض النظر عن التكنولوجيا التي تستخدمها.”
عمليات احتيال “ استنساخ الصوت ” بالذكاء الاصطناعي تصيب الأمريكيين المسنين بشكل متزايد ، ويحذر السناتور
العديد من المجالات التي يمكن فيها إساءة استخدام بيانات القياسات الحيوية للمستهلكين تنتهك خصوصيتهم وحقوقهم المدنية تم إدراجها في إعلان FTC:
“على سبيل المثال ، يمكن أن يؤدي استخدام تقنيات المعلومات الحيوية لتحديد المستهلكين في مواقع معينة إلى الكشف عن معلومات شخصية حساسة عنهم ، مثل ما إذا كانوا قد حصلوا على أنواع معينة من الرعاية الصحية ، أو حضروا خدمات دينية ، أو حضروا اجتماعات سياسية أو نقابية. ويمكن أيضًا استخدام قواعد بيانات كبيرة للمعلومات البيومترية أهداف جذابة للجهات الفاعلة الخبيثة التي يمكن أن تسيء استخدام هذه المعلومات. بالإضافة إلى ذلك ، قد يكون لبعض التقنيات التي تستخدم المعلومات البيومترية ، مثل تقنية التعرف على الوجه ، معدلات خطأ أعلى لبعض السكان مقارنة بغيرهم “.
ما هي مخاطر الذكاء الاصطناعي؟ اكتشف سبب خوف الناس من الذكاء الاصطناعي
ال بيان سياسة FTC عرض أيضًا أمثلة للطرق التي يمكن من خلالها أن ينتهك استخدام الشركات للمعلومات البيومترية قانون FTC ، بما في ذلك:
- عدم تقييم الأضرار المتوقعة للمستهلكين قبل جمع البيانات البيومترية ؛
- عدم اتخاذ إجراءات لتقليل أو القضاء على هذه المخاطر ؛
- الجمع السري أو غير المتوقع أو استخدام البيانات الحيوية للمستهلكين ؛
- عدم تقييم ممارسات وقدرات الأطراف الثالثة التي ستصل إلى البيانات البيومترية ؛
- عدم تدريب الموظفين والمقاولين الذين يتعاملون مع البيانات البيومترية بشكل مناسب ؛ و
- الفشل في مراقبة التقنيات المرتبطة ببيانات القياسات الحيوية للتأكد من أنها تعمل بشكل صحيح ومن غير المرجح أن تضر المستهلكين.
أشار بيان سياسة لجنة التجارة الفيدرالية إلى أن التطورات في التعلم الآلي ساهمت جزئيًا في أن تصبح تقنيات التعرف على الوجه أفضل 20 مرة في العثور على صورة مطابقة من قاعدة بيانات من 2014 إلى 2018 ، وفقًا لأبحاث المعهد الوطني للمعايير والتكنولوجيا.
وأوضح أن “هذه التحسينات ترجع في جزء كبير منها إلى التقدم في التعلم الآلي ، جنبًا إلى جنب مع جمع البيانات وتخزينها وقدرات المعالجة الكافية لدعم استخدام هذه التقنيات”.
السيناتور ينطلق من سماع الذكاء الاصطناعي ببيان افتتاح عميق
على وجه الخصوص ، يستخدم ما يسمى بـ “التزييف العميق” البيانات البيومترية لإنتاج صور وصوت مزيف تبدو واقعية للمشاهد أو المستمع غير المتعمد. حذرت لجنة التجارة الفيدرالية (FTC) من أن تقنية التزييف العميق يمكن أن “تسمح للممثلين السيئين بانتحال شخصية الأفراد بشكل مقنع من أجل ارتكاب عملية احتيال أو التشهير أو مضايقة الأفراد الذين يتم تصويرهم”.
عقدت لجنة تابعة لمجلس الشيوخ مؤخرًا جلسة استماع عرضت منذ البداية كيف أصبحت تقنيات الذكاء الاصطناعي التوليدية المتقدمة في محاكاة السمات الحيوية للفرد ، بما في ذلك صوته.
افتتح السناتور ريتشارد بلومنتال ، ديمقراطي من كونيكت ، جلسة الاستماع من خلال تشغيل صوت بيان افتتاحي بدا بشكل غريب مثل السناتور نفسه – على الرغم من أن اللغة تمت صياغتها بواسطة برنامج ChatGPT الخاص بـ OpenAI والصوت الناتج عن برنامج استنساخ الصوت.
قال بلومنتال: “هذا الصوت لم يكن صوتي. الكلمات لم تكن لي”. ومضى السناتور ليشرح ، “الصوت وتشغيله قد يذهلك على أنه مضحك ، لكن ما تردد في ذهني هو ماذا لو طلبت ذلك وماذا لو كان قد قدم تأييدًا لاستسلام أوكرانيا أو قيادة فلاديمير بوتين؟ سيكون مخيفًا حقًا “.