في الآونة الأخيرة ، تم تسريب ملف زعم المستند ، الذي يُزعم أنه من Google ، أن الذكاء الاصطناعي مفتوح المصدر سيتفوق على Google و OpenAI. أبرز التسريب المحادثات الجارية في مجتمع الذكاء الاصطناعي حول كيفية مشاركة نظام الذكاء الاصطناعي ومكوناته العديدة مع الباحثين والجمهور. حتى مع وجود عدد كبير من الإصدارات الحديثة لنظام الذكاء الاصطناعي ، تظل هذه المشكلة دون حل.
يعتقد الكثير من الناس أن هذا سؤال ثنائي: يمكن أن تكون الأنظمة إما مفتوحة المصدر أو مغلقة المصدر. تعمل التنمية المفتوحة على إضفاء اللامركزية على السلطة بحيث يمكن للعديد من الأشخاص العمل بشكل جماعي على أنظمة الذكاء الاصطناعي للتأكد من أنها تعكس احتياجاتهم وقيمهم ، كما هو واضح مع BLOOM من BigScience. بينما يسمح الانفتاح لمزيد من الأشخاص بالمساهمة في البحث والتطوير في مجال الذكاء الاصطناعي ، تزداد احتمالية الضرر وسوء الاستخدام – خاصة من الجهات الخبيثة – مع زيادة الوصول. أنظمة المصادر المغلقة ، مثل إصدار LaMDA الأصلي من Google ، محمية من الجهات الفاعلة خارج مؤسسة المطور ولكن لا يمكن تدقيقها أو تقييمها من قبل الباحثين الخارجيين.
لقد كنت أقود وأبحث في إصدارات أنظمة الذكاء الاصطناعي التوليدية ، بما في ذلك GPT-2 من OpenAI ، منذ أن بدأت هذه الأنظمة في أن تصبح متاحة للاستخدام على نطاق واسع ، وأنا الآن أركز على اعتبارات الانفتاح الأخلاقي في Hugging Face. أثناء القيام بهذا العمل ، توصلت إلى التفكير في المصدر المفتوح والمصدر المغلق على أنهما طرفي التدرج اللوني للخيارات لإصدار أنظمة الذكاء الاصطناعي التوليدية ، بدلاً من سؤال إما / أو سؤال بسيط.
في أحد طرفي التدرج اللوني توجد أنظمة مغلقة للغاية بحيث لا يعرفها الجمهور. من الصعب الاستشهاد بأية أمثلة ملموسة على ذلك لأسباب واضحة. لكن مجرد خطوة واحدة على التدرج ، أصبحت الأنظمة المغلقة المعلنة علنًا شائعة بشكل متزايد للطرائق الجديدة ، مثل إنشاء الفيديو. نظرًا لأن إنشاء الفيديو يعد تطورًا حديثًا نسبيًا ، فهناك القليل من الأبحاث والمعلومات حول المخاطر التي يمثلها وأفضل طريقة للتخفيف منها. عندما أعلنت Meta عن نموذج Make-a-Video الخاص بها في سبتمبر 2022 ، أشارت إلى مخاوف مثل السهولة التي يمكن بها لأي شخص إنشاء محتوى واقعي ومضلل كأسباب لعدم مشاركة النموذج. بدلاً من ذلك ، صرحت Meta أنها ستسمح بالتدريج بالوصول إلى الباحثين.
في منتصف التدرج اللوني توجد الأنظمة التي يعرفها المستخدمون العاديون. كل من ChatGPT و Midjourney ، على سبيل المثال ، عبارة عن أنظمة مستضافة يمكن الوصول إليها بشكل عام حيث تشارك منظمة المطورين ، OpenAI و Midjourney على التوالي ، النموذج من خلال منصة حتى يتمكن الجمهور من المطالبة بالمخرجات وتوليدها. مع وصولها الواسع والواجهة الخالية من التعليمات البرمجية ، أثبتت هذه الأنظمة أنها مفيدة ومحفوفة بالمخاطر. في حين أنها يمكن أن تسمح بتعليقات أكثر من النظام المغلق ، لأن الأشخاص خارج المنظمة المضيفة يمكنهم التفاعل مع النموذج ، فإن هؤلاء الغرباء لديهم معلومات محدودة ولا يمكنهم البحث بقوة في النظام من خلال ، على سبيل المثال ، تقييم بيانات التدريب أو النموذج نفسه.
على الطرف الآخر من التدرج اللوني ، يكون النظام مفتوحًا تمامًا عندما تكون جميع المكونات ، من بيانات التدريب إلى الكود إلى النموذج نفسه ، مفتوحة تمامًا ويمكن للجميع الوصول إليها. تم إنشاء الذكاء الاصطناعي التوليدي على أساس بحث مفتوح ودروس من أنظمة مبكرة مثل Google’s BERT ، والتي كانت مفتوحة بالكامل. واليوم ، أصبحت الأنظمة المفتوحة بالكامل الأكثر استخدامًا رائدة من قبل المنظمات التي تركز على التحول الديمقراطي والشفافية. المبادرات التي استضافتها Hugging Face (التي ساهمت فيها) – مثل BigScience و BigCode ، التي تشارك في قيادتها ServiceNow – ومن قبل المجموعات اللامركزية مثل EleutherAI أصبحت الآن دراسات حالة شائعة لبناء أنظمة مفتوحة لتشمل العديد من اللغات والشعوب في جميع أنحاء العالم.
لا توجد طريقة إطلاق آمنة بشكل نهائي أو مجموعة موحدة من معايير الإصدار. ولا توجد أي هيئة قائمة لوضع المعايير. كانت أنظمة الذكاء الاصطناعي التوليدية المبكرة مثل ELMo و BERT مفتوحة إلى حد كبير حتى الإصدار المرحلي لـ GPT-2 في عام 2019 ، مما أثار مناقشات جديدة حول النشر المسؤول لأنظمة قوية بشكل متزايد ، مثل ما يجب أن تكون عليه التزامات الإصدار أو النشر. منذ ذلك الحين ، تحولت الأنظمة عبر الطرائق ، وخاصة من المؤسسات الكبيرة ، نحو الانغلاق ، مما أثار القلق بشأن تركيز القوة في المنظمات عالية الموارد القادرة على تطوير ونشر هذه الأنظمة.