في أواخر العام الماضي، أحدث الإعلان عن أداة الذكاء الاصطناعي ChatGPT المطورة من شركة OpenAI ثورة تكنولوجية اعتبرها البعض تأخيرا لعصر آخر جديد بعد عصر الكمبيوتر، ومع إصدار ChatGPT للمستخدمين فوجئ الكثيرون منهم بأن هناك شئ ما خطأ، وأن الإجابات التي تقدمها الأداة لا توفر دقة كاملة، ولكن البحث العلمي قال كلمته الأخيرة بشأن دقة الإصدار الحالي من ChatGPT.
وتوصلت دراسة حديثة في جامعة “Purdue” بوردو في الولايات المتحدة الأمريكية إلى أن الإجابات التي تقدمها أداة الذكاء الاصطناعي ChatGPT خاطئة بنسبة تزيد عن 50٪ ، حيث كانت أكثر من نصف إجابات ChatGPT غير صحيحة، وأن قدراتها اللغوية المتقدمة تمكنت من تضليل جزء كبير من المشاركين.
وقام فريق البحث بفحص 517 سؤالاً برمجيًا تم الحصول عليها من Stack Overflow وقاموا بتقييم جوانب مختلفة من ردود ChatGPT ، بما في ذلك الدقة والاتساق والشمولية والإيجاز، وكانت نتائج التقييم مخيبة للآمال ، حيث تم الكشف عن أن 52٪ من الإجابات المقدمة كانت غير دقيقة ، وأن 77٪ كانت طويلة بلا داع.
وبحسب موقع Gizmochina فإن الأمر الذي أثار المزيد من القلق هو ملاحظة أن أسلوب اللغة البليغ والمنهجي للذكاء الاصطناعي غالبًا هو ما أدى إلى ضلال المشاركين، وفقط في الحالات التي كانت فيها الأخطاء واضحة بشكل صارخ ، تمكن المشاركون من تحديد الأخطاء.
وتقدم هذه النتائج حجة مقنعة مفادها أن الذكاء الاصطناعي التوليدي الحالي ، في حالته الحالية ، قد لا يكون أداة مناسبة للمساعدة في إنشاء الكود وقد يكون له آثار عكسية، واعترافًا بهذا الواقع ، أصدر العديد من عمالقة شركات التكنولوجيا مثل جوجل و آبل و أمازون و سامسونج تحذيرات أو فرضوا حظراً على استخدام الذكاء الاصطناعي التوليدي لاقتراحات الكود.
وتعمل شركة OpenAI على إصدار النسخة الخامسة ChatGPT التالية GPT-5 والتي من المتوقع أن تعالج هذه الأخطاء، مع تحسين الأساليب المتعددة مع النصوص والصور ومقاطع الفيديو والصوت ، وتحسين الكفاءة الحسابية ، والذاكرة ، وفهم السياق.