حددت OpenAI، صانعة ChatGPT، خطة لمنع استخدام أدواتها لنشر معلومات مضللة عن الانتخابات بينما يستعد الناخبون في أكثر من 50 دولة للإدلاء بأصواتهم في الانتخابات الوطنية هذا العام.
تتضمن الضمانات التي أوضحتها شركة الذكاء الاصطناعي الناشئة ومقرها سان فرانسيسكو في منشور مدونة هذا الأسبوع مزيجًا من السياسات الموجودة مسبقًا والمبادرات الأحدث لمنع إساءة استخدام أدوات الذكاء الاصطناعي التوليدية ذات الشعبية الكبيرة. يمكنهم إنشاء نصوص وصور جديدة في ثوانٍ، ولكن يمكن أيضًا تسليحهم لتلفيق رسائل مضللة أو صور مزيفة ومقنعة.
سيتم تطبيق الخطوات بشكل خاص على OpenAI، وهي لاعب واحد فقط في عالم متوسع من الشركات التي تعمل على تطوير أدوات الذكاء الاصطناعي التوليدية المتقدمة. وقالت الشركة، التي أعلنت عن هذه الخطوات يوم الاثنين، إنها تخطط “لمواصلة عمل سلامة النظام الأساسي لدينا من خلال رفع معلومات التصويت الدقيقة، وإنفاذ السياسات المقاسة، وتحسين الشفافية”.
وقالت إنها ستمنع الأشخاص من استخدام تقنيتها لإنشاء روبوتات الدردشة التي تنتحل شخصية المرشحين الحقيقيين أو الحكومات، أو تحريف كيفية إجراء التصويت أو تثبيط الناس عن التصويت. وقالت إنه حتى يتم إجراء المزيد من الأبحاث حول القوة المقنعة لتكنولوجيتها، فإنها لن تسمح لمستخدميها ببناء تطبيقات لأغراض الحملات السياسية أو الضغط.
وقالت شركة OpenAI، إنها ابتداءً من “أوائل هذا العام”، ستقوم بوضع علامة مائية رقمية على صور الذكاء الاصطناعي التي تم إنشاؤها باستخدام مولد الصور DALL-E الخاص بها. سيؤدي هذا إلى وضع علامة دائمة على المحتوى بمعلومات حول أصله، مما يسهل تحديد ما إذا كانت الصورة التي تظهر في مكان آخر على الويب قد تم إنشاؤها باستخدام أداة الذكاء الاصطناعي.
وقالت الشركة أيضًا إنها تتعاون مع الرابطة الوطنية لوزراء الخارجية لتوجيه مستخدمي ChatGPT الذين يطرحون أسئلة لوجستية حول التصويت للحصول على معلومات دقيقة على الموقع الإلكتروني غير الحزبي لهذه المجموعة، CanIVote.org.
وقالت ميكيلا بانديثاراتني، مستشارة برنامج الديمقراطية في مركز برينان للعدالة، إن خطط OpenAI هي خطوة إيجابية نحو مكافحة المعلومات الخاطئة عن الانتخابات، لكن ذلك سيعتمد على كيفية تنفيذها.
احصل على آخر الأخبار الوطنية. أرسلت إلى البريد الإلكتروني الخاص بك، كل يوم.
“على سبيل المثال، إلى أي مدى ستكون المرشحات شاملة وشاملة عند تحديد الأسئلة المتعلقة بالعملية الانتخابية؟” قالت. “هل ستكون هناك عناصر تنزلق عبر الشقوق؟”
تعد ChatGPT وDALL-E من OpenAI من أقوى أدوات الذكاء الاصطناعي التوليدية حتى الآن. ولكن هناك العديد من الشركات التي تمتلك تكنولوجيا متطورة مماثلة، ولكنها لا تمتلك الكثير من الإجراءات الوقائية المتعلقة بالمعلومات الخاطئة المتعلقة بالانتخابات.
في حين أن بعض شركات وسائل التواصل الاجتماعي، مثل يوتيوب وميتا، قد أدخلت سياسات تصنيف الذكاء الاصطناعي، يبقى أن نرى ما إذا كانت ستتمكن من القبض على المخالفين باستمرار.
وقال داريل ويست، زميل بارز في مركز الابتكار التكنولوجي التابع لمعهد بروكينغ: “سيكون من المفيد أن تتبنى شركات الذكاء الاصطناعي الأخرى مبادئ توجيهية مماثلة حتى يمكن تطبيق القواعد العملية على مستوى الصناعة”.
وبدون التبني الطوعي لمثل هذه السياسات في جميع أنحاء الصناعة، فإن تنظيم المعلومات المضللة الناتجة عن الذكاء الاصطناعي في السياسة سوف يتطلب التشريع. وفي الولايات المتحدة، لم يصدر الكونجرس بعد تشريعًا يسعى إلى تنظيم دور الصناعة في السياسة على الرغم من بعض الدعم من الحزبين الجمهوري والديمقراطي. وفي الوقت نفسه، أقرت أكثر من ثلث الولايات الأمريكية أو قدمت مشاريع قوانين لمعالجة التزييف العميق في الحملات السياسية مع تعثر التشريعات الفيدرالية.
قال سام ألتمان، الرئيس التنفيذي لشركة OpenAI، إنه حتى مع وجود جميع الضمانات التي توفرها شركته، فإن عقله ليس مرتاحًا.
وقال خلال مقابلة يوم الثلاثاء في حدث بلومبرج خلال المنتدى الاقتصادي العالمي في دافوس بسويسرا: “أعتقد أنه من الجيد أن لدينا الكثير من القلق وسنبذل كل ما في وسعنا لتصحيح الأمر قدر الإمكان”. “سيتعين علينا أن نراقب هذا عن كثب بشكل لا يصدق هذا العام. مراقبة مشددة للغاية. حلقة ردود فعل ضيقة للغاية.
& نسخة 2024 الصحافة الكندية