تكنولوجيا
هل الحوافز السيئة هي المسؤولة عن هلوسات الذكاء الاصطناعي؟
تسلط ورقة بحثية جديدة من “OpenAI” الضوء على استمرار ظاهرة “الهلوسة” في نماذج اللغة الكبيرة مثل GPT-5، حيث تُنتج هذه النماذج عبارات خاطئة تبدو صحيحة، نتيجة لطبيعة التدريب التي تركز على التنبؤ بالكلمة التالية دون تمييز بين الصحيح والخاطئ.
ويقترح الباحثون أن المشكلة لا تكمن فقط في التدريب، بل في آليات التقييم التي تشجع التخمين بدلاً من الاعتراف بعدم المعرفة، مما يعزز الثقة الزائفة في الإجابات.
وتدعو الورقة إلى تعديل أنظمة التقييم بحيث تعاقب الأخطاء الواثقة وتكافئ التعبير عن عدم اليقين، بهدف تقليل الهلوسة وتحسين دقة النماذج.