اضطرت مجلة علمية إلى سحب بحث نشرته الشهر الماضي بعد أن تبين أن المؤلفين استخدموا تطبيق الذكاء الاصطناعي ChatGPT لكتابته.
كانت الورقة البحثية، التي نُشرت في 9 أغسطس في مجلة Physica Scripta، بمثابة محاولة للكشف عن حلول جديدة لمعادلة رياضية معقدة، ولكنها تضمنت عبارة “تجديد الاستجابة” في الصفحة الثالثة – وهو أمر أدركه أحد القراء ذوي النظر الثاقب هو عبارة ” زر على ChatGPT، وفقًا لتقرير من مجلة Nature.
ما هو شاتغبت؟
وقد اعترف مؤلفو الورقة منذ ذلك الحين أنهم استخدموا ChatGPT للمساعدة في كتابة المخطوطة، وهو الأمر الذي لم يتم اكتشافه خلال شهرين من مراجعة النظراء بعد تقديم الورقة في مايو. أدى هذا الكشف إلى قيام الناشر الذي يتخذ من المملكة المتحدة مقراً له بسحب البحث لأن المؤلفين لم يكشفوا عن استخدامهم لتطبيق الذكاء الاصطناعي عندما قدموه.
الرئيس التنفيذي لشركة NEWS CORP، روبرت طومسون، يتحدى التحيز اليساري للمحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي، ودقته
وقال كيم إيجلتون، المسؤول عن مراجعة النظراء ونزاهة الأبحاث في دار IOP للنشر، في بيان، وفقًا لمجلة Nature: “هذا انتهاك لسياساتنا الأخلاقية”.
تم اكتشاف خطأ النسخ واللصق الواضح من قبل عالم الكمبيوتر ومحقق النزاهة غيوم كاباناك، الذي جعل منذ عام 2015 مهمة شخصية للكشف عن الأوراق التي لا تتسم بالشفافية بشأن استخدامها للذكاء الاصطناعي.
وقال سيريل لابي، عالم الكمبيوتر زميل الذي يعمل مع كاباناك للكشف عن الأوراق، وفقا لتقرير من فيوتشرزم: “إنه يشعر بالإحباط بسبب الأوراق المزورة”.
ما هو الذكاء الاصطناعي (AI)؟
وكان كاباناك أيضًا وراء الاكتشاف الأخير لموقف مماثل في ورقة بحثية نُشرت في مجلة Resources Policy، والتي وجد أنها تتضمن “معادلات لا معنى لها”، وفقًا لموقع Futurism.
في حين أنه من المفترض أن تكون عملية مراجعة النظراء لنشر الأوراق البحثية صارمة، فإن حجم الأبحاث المنشورة يؤدي إلى سقوط بعض الأشياء في الشقوق. قال ديفيد بيملر، الباحث الذي يبحث أيضًا عن الأوراق المزورة، إن العديد من المراجعين ليس لديهم الوقت الكافي لاكتشاف التلميحات الدقيقة أحيانًا التي تشير إلى استخدام الذكاء الاصطناعي في الورقة البحثية.
وقال بيملر، وفقًا لموقع Futurist: “إن النظام البيئي العلمي بأكمله إما أن يُنشر أو يموت”. “عدد حراس البوابة لا يمكن مواكبته.”
لم تستجب Physica Scripta على الفور لطلب Fox News للتعليق.