أدت الإقالة المفاجئة للرئيس التنفيذي لشركة OpenAI، سام ألتمان، إلى تجديد القلق بشأن حالة تنظيم الذكاء الاصطناعي مع استمرار الصناعة في النمو بوتيرة سريعة.
وقال كريستوفر ألكسندر، كبير مسؤولي التحليلات في Pioneer Development Group، لشبكة Fox News Digital: “الآن هو الوقت المثالي لإنشاء حواجز حماية منطقية”.
تأتي تعليقات ألكساندر بعد أن اتخذ مجلس إدارة OpenAI خطوة الأسبوع الماضي لطرد ألتمان، بحجة أن مؤسس الشركة لم يتواصل بشكل جيد مع مجلس الإدارة وأنه فقد ثقة العاملين فيه.
وقالت الشركة في بيان: “إن رحيل السيد ألتمان يأتي بعد عملية مراجعة تداولية من قبل مجلس الإدارة، والتي خلصت إلى أنه لم يكن صريحًا باستمرار في اتصالاته مع مجلس الإدارة، مما أعاق قدرته على ممارسة مسؤولياته”.
يقال إن سام ألتمان يخطط لمشروع جديد في مجال الذكاء الاصطناعي بعد طرد أوبيناي
وتأتي هذه الخطوة في الوقت الذي بدأت فيه صناعة الذكاء الاصطناعي المتنامية في جذب المزيد من الاهتمام من الحكومات في جميع أنحاء العالم، حيث وقع الرئيس بايدن مؤخرًا على أمر تنفيذي من المفترض أن يكون الخطوة الأولى في تنظيم الصناعة. ومع ذلك، فإن المدى الذي يمكن أن يصل إليه هذا الأمر أمر مشكوك فيه، في حين اتخذ الكونجرس خطوات قليلة لتدوين أي تنظيم للذكاء الاصطناعي ليصبح قانونًا.
وقد أدى هذا النقص في التنظيم إلى تزايد القلق مع انتقال إحدى شركات الذكاء الاصطناعي الرائدة في البلاد، والتي تقف وراء منصة ChatGPT الشهيرة، إلى قيادة جديدة. وفي مقال لصحيفة نيويورك بوست في وقت سابق من هذا الأسبوع، قال أستاذ الفلسفة بجامعة نياجرا ستيف بيترسن إن هذه الخطوة أظهرت أن شركات الذكاء الاصطناعي “لم يعد من الممكن الوثوق بها لمراقبة نفسها؛ لقد حان الوقت لاستدعاء الذراع الطويلة للقانون”.
يقول بيترسن: “يتم تعريفه على أنه ذكاء على المستوى البشري أو أفضل في جميع المهام المعرفية – وبمجرد أن نحصل عليه، فمن المرجح أن يتجاوز مستوى ذكائنا بسرعة”. “إذا أخطأنا في فهم الأمر، فإن العديد من المفكرين الرصينين يتفقون على أنه يمكن أن يكون كارثة وجودية للبشرية.”
ويوافق ألكسندر على أن الخطر الذي قد يشكله الذكاء الاصطناعي يجعل التنظيم ضروريًا، على الرغم من أنه حذر من أن التكنولوجيا الحالية ليست على المستوى الذي يخشاه الكثيرون، ولكن يمكن أن تصل إليه في يوم من الأيام.
المؤسس المشارك لـ OPENAI جريج بروكمان “مصدوم وحزن” بسبب رحيل الرئيس التنفيذي سام ألتمان
وأشار ألكسندر إلى الطفرة الأولية في وسائل التواصل الاجتماعي باعتبارها أحد الأمثلة على الفرص الضائعة، قائلا إن صناع السياسات لا ينبغي لهم أن يرتكبوا نفس الأخطاء عندما يتعلق الأمر بالذكاء الاصطناعي.
ومع ذلك، تساءل البعض عما إذا كان رحيل ألتمان المفاجئ يسلط الضوء على الحاجة إلى مزيد من التنظيم، حيث أشار مؤسس مركز الاستعداد المتقدم ومحاكاة الاستجابة للتهديدات، فيل سيجل، إلى أن OpenAI قد تجاوزت بالفعل العقبات التنظيمية.
وقال سيجل لـ Fox News Digital: “إن الافتقار إلى عملية للتحقيق وتطبيق السياسات أمر مثير للقلق بالنسبة لشركة لها مثل هذا التأثير على نظامنا البيئي التكنولوجي في الوقت الحالي”. “آمل أن يضع المستثمرون أقدامهم ويطالبون بمجلس إدارة أكبر وأكثر احترافًا وخضوعًا للمساءلة، ربما يضم مؤسسًا واحدًا فقط، وناشطًا واحدًا أو اثنين، والعديد من المديرين ذوي الخبرة. ولست متأكدًا من قدرتك على تنظيم ذلك، فقد نجحوا في ذلك. معظم العقبات التنظيمية التي يمكنك تخيلها.”
انقر هنا لمزيد من الأخبار الأمريكية
وفي الوقت نفسه، يخشى خبراء آخرون أن يؤدي الإفراط في التنظيم إلى تثبيط الابتكار في الولايات المتحدة في مجال تكنولوجيا الذكاء الاصطناعي.
وقال صامويل مانجولد لينيت، محرر فريق The Federalist، لـ Fox News Digital: “إن صراعات القيادة مثل ما رأيناه للتو في OpenAI ليست جديدة. عالم الأعمال يختبرها بشكل منتظم”.
“معظم معرفتنا حول الذكاء الاصطناعي العام لا تزال نظرية، ومن المحتمل أن اللوائح التنظيمية في هذا المجال ستمنع التنمية وتبطئ التقدم بينما يواصل خصومنا – وتحديداً الصين – المضي قدمًا. نحن بحاجة إلى توخي الحذر والتأكد من أن هذه التكنولوجيا لا تشكل تهديدًا إنه تهديد للإنسانية ويمكن الوثوق بالأشخاص الذين يعملون عليه للعمل عليه، ولكن مثل مشروع مانهاتن، من المستحيل إيجاد التوازن المثالي بين الظروف والشخصيات.
انقر للحصول على تطبيق FOX NEWS
ومع ذلك، قال جون شويبي، مدير السياسات في مشروع المبادئ الأمريكية، إن هذه المحنة هي مثال على سبب الحاجة إلى التنظيم.
وقال شويبي لشبكة فوكس نيوز ديجيتال: “تخيل لو قررنا ترك ترسانتنا النووية في أيدي عدد قليل من إخواننا في مجال التكنولوجيا ذوي الأيديولوجية العالية. وهذا ما يحدث بشكل أساسي مع الذكاء الاصطناعي الآن. الذكاء الاصطناعي هو سلاح تكنولوجي للدمار الشامل، فهو يشكل تهديدًا وجوديًا للبشرية كما نعرفها. من الواضح أن هناك حاجة إلى مستوى معين من الرقابة قبل فوات الأوان.”