بدأت صناعة الذكاء الاصطناعي (AI) عام 2023 بضجة كبيرة، حيث كافحت المدارس والجامعات مع الطلاب الذين يستخدمون ChatGPT من OpenAI لمساعدتهم في الواجبات المنزلية وكتابة المقالات.
بعد أقل من أسبوع من بداية العام، حظرت المدارس العامة في مدينة نيويورك تطبيق ChatGPT – الذي تم إصداره قبل أسابيع وسط ضجة هائلة – وهي خطوة من شأنها أن تمهد الطريق لكثير من النقاش حول الذكاء الاصطناعي التوليدي في عام 2023.
مع تزايد الضجة حول ChatGPT المدعومة من Microsoft والمنافسين مثل Bard AI من Google، وErnie Chatbot من Baidu، وLLaMA من Meta، تزايدت أيضًا الأسئلة حول كيفية التعامل مع تقنية جديدة قوية أصبحت في متناول الجمهور بين عشية وضحاها.
في حين أن الصور والموسيقى ومقاطع الفيديو وأكواد الكمبيوتر التي أنشأها الذكاء الاصطناعي والتي أنشأتها منصات مثل Stable Diffusion أو DALL-E من OpenAI فتحت إمكانيات جديدة ومثيرة، إلا أنها أثارت أيضًا المخاوف بشأن المعلومات الخاطئة والمضايقات المستهدفة وانتهاك حقوق الطبع والنشر.
في مارس/آذار، دعت مجموعة من أكثر من 1000 موقع، بما في ذلك المؤسس المشارك لشركة أبل ستيف وزنياك ورائد الأعمال الملياردير إيلون ماسك، إلى التوقف مؤقتًا في تطوير الذكاء الاصطناعي الأكثر تقدمًا في ضوء “مخاطره العميقة على المجتمع والإنسانية”.
على الرغم من عدم حدوث توقف مؤقت، بدأت الحكومات والسلطات التنظيمية في طرح قوانين ولوائح جديدة لوضع حواجز أمام تطوير واستخدام الذكاء الاصطناعي.
في حين أن العديد من القضايا المتعلقة بالذكاء الاصطناعي لا تزال دون حل مع اقتراب العام الجديد، فمن المرجح أن نتذكر عام 2023 باعتباره معلمًا رئيسيًا في تاريخ هذا المجال.
الدراما في OpenAI
بعد أن جمع ChatGPT أكثر من 100 مليون مستخدم في عام 2023، عاد المطور OpenAI إلى عناوين الأخبار في نوفمبر عندما قام مجلس إدارته بإقالة الرئيس التنفيذي سام ألتمان فجأة – زاعمًا أنه لم يكن “صريحًا باستمرار في اتصالاته مع مجلس الإدارة”.
على الرغم من أن الشركة الناشئة في وادي السيليكون لم توضح أسباب طرد ألتمان، إلا أن إقالته تُعزى على نطاق واسع إلى صراع أيديولوجي داخل الشركة بين السلامة والمخاوف التجارية.
أثارت إقالة ألتمان خمسة أيام من الدراما العامة التي شهدت تهديد موظفي OpenAI بالاستقالة بشكل جماعي وتم تعيين ألتمان لفترة وجيزة من قبل Microsoft، حتى إعادته إلى منصبه واستبدال مجلس الإدارة.
وبينما حاولت شركة OpenAI المضي قدمًا من الدراما، تظل الأسئلة التي أثيرت خلال الاضطرابات صحيحة بالنسبة للصناعة ككل – بما في ذلك كيفية الموازنة بين الدافع لتحقيق الربح وإطلاق المنتجات الجديدة مقابل المخاوف من أن الذكاء الاصطناعي قد ينمو بقوة كبيرة جدًا بسرعة كبيرة جدًا، أو ينهار. في الأيدي الخطأ.
في استطلاع شمل 305 من المطورين وصانعي السياسات والأكاديميين أجراه مركز بيو للأبحاث في يوليو، قال 79% من المشاركين إنهم إما قلقون بشأن مستقبل الذكاء الاصطناعي أكثر من حماسهم، أو قلقون بنفس الدرجة متحمسون.
على الرغم من قدرة الذكاء الاصطناعي على تحويل المجالات من الطب إلى التعليم والاتصالات الجماهيرية، أعرب المشاركون في الاستطلاع عن قلقهم بشأن المخاطر مثل المراقبة الجماعية، ومضايقات الحكومة والشرطة، والنزوح الوظيفي، والعزلة الاجتماعية.
قال شون ماكجريجور، مؤسس منظمة الذكاء الاصطناعي المسؤولة، إن عام 2023 أظهر الآمال والمخاوف الموجودة حول الذكاء الاصطناعي التوليدي، بالإضافة إلى الانقسامات الفلسفية العميقة داخل القطاع.
وقال ماكجريجور لقناة الجزيرة: “الأمر الأكثر تفاؤلاً هو أن الضوء يسلط الآن على القرارات المجتمعية التي يتخذها خبراء التكنولوجيا، على الرغم من أنه من المثير للقلق أن العديد من زملائي في قطاع التكنولوجيا يبدو أنهم ينظرون إلى هذا الاهتمام بشكل سلبي”، مضيفًا أن الذكاء الاصطناعي يجب أن يتشكل من خلال ” احتياجات الأشخاص الأكثر تأثراً”.
وقال: “ما زلت أشعر بإيجابية إلى حد كبير، ولكن العقود القليلة المقبلة ستكون صعبة عندما ندرك أن الخطاب حول سلامة الذكاء الاصطناعي هو نسخة تكنولوجية خيالية من التحديات المجتمعية القديمة”.
تشريع المستقبل
في ديسمبر/كانون الأول، اتفق صناع السياسات في الاتحاد الأوروبي على تشريع شامل لتنظيم مستقبل الذكاء الاصطناعي، في تتويج لعام من الجهود التي بذلتها الحكومات الوطنية والهيئات الدولية مثل الأمم المتحدة ومجموعة السبع.
تشمل المخاوف الرئيسية مصادر المعلومات المستخدمة لتدريب خوارزميات الذكاء الاصطناعي، والتي يتم استخراج الكثير منها من الإنترنت دون مراعاة الخصوصية أو التحيز أو الدقة أو حقوق الطبع والنشر.
يتطلب مشروع تشريع الاتحاد الأوروبي من المطورين الكشف عن بيانات التدريب الخاصة بهم والامتثال لقوانين الكتلة، مع قيود على أنواع معينة من الاستخدام ومسار لشكاوى المستخدمين.
وتجري جهود تشريعية مماثلة في الولايات المتحدة، حيث أصدر الرئيس جو بايدن في أكتوبر/تشرين الأول أمرا تنفيذيا شاملا بشأن معايير الذكاء الاصطناعي، والمملكة المتحدة، التي استضافت في نوفمبر/تشرين الثاني قمة سلامة الذكاء الاصطناعي التي ضمت 27 دولة وأصحاب المصلحة في الصناعة.
اتخذت الصين أيضًا خطوات لتنظيم مستقبل الذكاء الاصطناعي، حيث أصدرت قواعد مؤقتة للمطورين تتطلب منهم الخضوع “لتقييم أمني” قبل إطلاق المنتجات للجمهور.
كما تقيد المبادئ التوجيهية بيانات تدريب الذكاء الاصطناعي وتحظر المحتوى الذي يُنظر إليه على أنه “يدعو إلى الإرهاب” أو “تقويض الاستقرار الاجتماعي” أو “الإطاحة بالنظام الاشتراكي” أو “الإضرار بصورة البلاد”.
وعلى الصعيد العالمي، شهد عام 2023 أيضًا أول اتفاق دولي مؤقت بشأن سلامة الذكاء الاصطناعي، وقعته 20 دولة، بما في ذلك الولايات المتحدة والمملكة المتحدة وألمانيا وإيطاليا وبولندا وإستونيا وجمهورية التشيك وسنغافورة ونيجيريا وإسرائيل وتشيلي.
الذكاء الاصطناعي ومستقبل العمل
وتنتشر التساؤلات حول مستقبل الذكاء الاصطناعي أيضًا في القطاع الخاص، حيث أدى استخدامه بالفعل إلى دعاوى قضائية جماعية في الولايات المتحدة من قبل الكتاب والفنانين ووسائل الإعلام التي تزعم انتهاك حقوق النشر.
كانت المخاوف من استبدال الذكاء الاصطناعي للوظائف عاملاً دافعًا وراء الإضرابات التي استمرت لعدة أشهر في هوليوود من قبل نقابة ممثلي الشاشة ونقابة الكتاب الأمريكية.
في مارس/آذار، توقع بنك جولدمان ساكس أن الذكاء الاصطناعي التوليدي من الممكن أن يحل محل 300 مليون وظيفة من خلال التشغيل الآلي ويؤثر على ثلثي الوظائف الحالية في أوروبا والولايات المتحدة بطريقة أو بأخرى على الأقل ــ مما يجعل العمل أكثر إنتاجية ولكن أيضا أكثر أتمتة.
وقد سعى آخرون إلى تخفيف التوقعات الأكثر كارثية.
في أغسطس/آب، قالت منظمة العمل الدولية، وكالة العمل التابعة للأمم المتحدة، إن الذكاء الاصطناعي التوليدي من المرجح أن يزيد معظم الوظائف بدلا من أن يحل محلها، مع إدراج العمل الكتابي باعتباره المهنة الأكثر عرضة للخطر.
عام “التزييف العميق”؟
سيكون عام 2024 بمثابة اختبار رئيسي للذكاء الاصطناعي التوليدي، مع ظهور تطبيقات جديدة في السوق ودخول التشريعات الجديدة حيز التنفيذ على خلفية الاضطرابات السياسية العالمية.
على مدى الأشهر الـ 12 المقبلة، من المقرر أن يدلي أكثر من ملياري شخص بأصواتهم في الانتخابات في 40 دولة، بما في ذلك النقاط الجيوسياسية الساخنة مثل الولايات المتحدة والهند وإندونيسيا وباكستان وفنزويلا وجنوب السودان وتايوان.
في حين أن حملات المعلومات المضللة عبر الإنترنت تشكل بالفعل جزءا منتظما من العديد من الدورات الانتخابية، فمن المتوقع أن يؤدي المحتوى الناتج عن الذكاء الاصطناعي إلى تفاقم الأمور حيث يصبح من الصعب على نحو متزايد التمييز بين المعلومات الكاذبة والحقيقية ويصبح تكرارها على نطاق واسع أسهل.
وقد تم بالفعل استخدام المحتوى الناتج عن الذكاء الاصطناعي، بما في ذلك الصور “المزيفة العميقة”، لإثارة الغضب والارتباك في مناطق الصراع مثل أوكرانيا وغزة، وقد ظهر في السباقات الانتخابية المتنازع عليها بشدة مثل الانتخابات الرئاسية الأمريكية.
أخبرت شركة Meta المعلنين الشهر الماضي أنها ستحظر الإعلانات السياسية على Facebook وInstagram التي يتم إنشاؤها باستخدام الذكاء الاصطناعي التوليدي، بينما أعلن YouTube أنه سيطلب من المبدعين تصنيف المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي بمظهر واقعي.