افتح ملخص المحرر مجانًا
رولا خلف، محررة الفايننشال تايمز، تختار قصصها المفضلة في هذه النشرة الأسبوعية.
يميل مؤيدو الذكاء الاصطناعي ومنتقدوه إلى الاتفاق على أن التكنولوجيا ستغير العالم. يرى أمثال سام ألتمان من OpenAI مستقبلًا تزدهر فيه البشرية؛ يتنبأ النقاد بالاضطراب المجتمعي والقوة المفرطة للشركات. إن التنبؤ الذي سيتحقق يعتمد جزئياً على الأسس الموضوعة اليوم. ومع ذلك، فإن الخلافات الأخيرة في شركة OpenAI – بما في ذلك رحيل المؤسس المشارك وكبير العلماء – تشير إلى أن اللاعبين الرئيسيين في مجال الذكاء الاصطناعي أصبحوا غامضين للغاية بحيث لا يستطيع المجتمع تحديد المسار الصحيح.
يجد مؤشر تم تطويره في جامعة ستانفورد أن الشفافية في شركات الذكاء الاصطناعي الرائدة مثل Google وAmazon وMeta وOpenAI لا ترقى إلى المستوى المطلوب. على الرغم من ظهور الذكاء الاصطناعي من خلال التعاون بين الباحثين والخبراء عبر المنصات، إلا أن الشركات تماسكت منذ أن أدى برنامج ChatGPT من OpenAI إلى طفرة تجارية في مجال الذكاء الاصطناعي. ونظراً للمخاطر المحتملة للذكاء الاصطناعي، تحتاج هذه الشركات إلى العودة إلى ماضيها الأكثر انفتاحاً.
تنقسم الشفافية في الذكاء الاصطناعي إلى مجالين رئيسيين: المدخلات والنماذج. يتم تدريب النماذج اللغوية الكبيرة، التي تشكل الأساس للذكاء الاصطناعي التوليدي مثل ChatGPT من OpenAI أو Gemini من Google، من خلال البحث في شبكة الإنترنت لتحليل “مجموعات البيانات” والتعلم منها والتي تتراوح من منتديات Reddit إلى لوحات بيكاسو. في الأيام الأولى للذكاء الاصطناعي، كان الباحثون غالبًا ما يكشفون عن بيانات التدريب الخاصة بهم في المجلات العلمية، مما يسمح للآخرين بتشخيص العيوب من خلال تقييم جودة المدخلات.
اليوم، يميل اللاعبون الرئيسيون إلى حجب تفاصيل بياناتهم للحماية من دعاوى انتهاك حقوق الطبع والنشر والحصول على ميزة تنافسية. وهذا يجعل من الصعب تقييم مدى صحة الاستجابات الناتجة عن الذكاء الاصطناعي. كما أنه يترك الكتاب والممثلين وغيرهم من المبدعين دون معرفة ما إذا كانت خصوصيتهم أو ملكيتهم الفكرية قد تم انتهاكها عن عمد.
النماذج نفسها تفتقر إلى الشفافية أيضًا. تعتمد كيفية تفسير النموذج لمدخلاته وتوليد اللغة على تصميمه. تميل شركات الذكاء الاصطناعي إلى النظر إلى بنية نموذجها باعتبارها “الصلصة السرية” الخاصة بها: حيث تركز براعة GPT-4 من OpenAI أو Meta's Llama على جودة حساباتها. لقد أصدر باحثو الذكاء الاصطناعي ذات مرة أوراقًا بحثية حول تصميماتهم، لكن الاندفاع للحصول على حصة في السوق أنهى مثل هذه الإفصاحات. ومع ذلك، فمن دون فهم كيفية عمل النموذج، من الصعب تقييم مخرجات الذكاء الاصطناعي وحدوده وتحيزاته.
كل هذا التعتيم يجعل من الصعب على الجمهور والجهات التنظيمية تقييم سلامة الذكاء الاصطناعي والحماية من الأضرار المحتملة. ومما يثير القلق أكثر أن جان لايكي، الذي ساعد في قيادة جهود OpenAI لتوجيه أدوات الذكاء الاصطناعي فائقة القوة، ادعى بعد ترك الشركة هذا الشهر أن قادتها أعطوا الأولوية “للمنتجات اللامعة” على السلامة. أصرت الشركة على أنها تستطيع تنظيم منتجها الخاص، لكن لجنتها الأمنية الجديدة ستقدم تقاريرها إلى نفس القادة.
بدأت الحكومات في وضع الأساس لتنظيم الذكاء الاصطناعي من خلال مؤتمر العام الماضي في بلتشلي بارك، والأمر التنفيذي للرئيس جو بايدن بشأن الذكاء الاصطناعي، وقانون الذكاء الاصطناعي للاتحاد الأوروبي. ورغم الترحيب بهذه التدابير، فإنها تركز على حواجز الحماية و”اختبارات السلامة”، بدلا من الشفافية الكاملة. والحقيقة هي أن معظم خبراء الذكاء الاصطناعي يعملون لصالح الشركات نفسها، وأن التقنيات تتطور بسرعة كبيرة جدًا بحيث لا تكون اختبارات السلامة الدورية كافية. وينبغي للجهات التنظيمية أن تدعو إلى شفافية النماذج والمدخلات، ويتعين على الخبراء في هذه الشركات أن يتعاونوا مع الهيئات التنظيمية.
يتمتع الذكاء الاصطناعي بالقدرة على تحويل العالم نحو الأفضل، وربما بقوة وسرعة أكبر من ثورة الإنترنت. قد تزعم الشركات أن متطلبات الشفافية من شأنها أن تبطئ الابتكار وتضعف قدرتها التنافسية، ولكن التاريخ الحديث للذكاء الاصطناعي يشير إلى خلاف ذلك. لقد تطورت هذه التقنيات بفضل التعاون والأبحاث المشتركة. إن العودة إلى هذه المعايير لن تؤدي إلا إلى زيادة ثقة الجمهور، والسماح بإبداع أكثر سرعة، ولكن أكثر أمانا.