كثيراً ما تنتج نماذج الذكاء الاصطناعي مخرجات خاطئة أو غير واقعية، وهي ظاهرة تُعرف باسم "الهلوسات" (Hallucinations). والآن، اعترفت شركة OpenAI بأن هذه الهلوسات قد تكون نتيجة لأخطاء جوهرية في الطريقة التي تدرب بها نماذجها من الأساس.
جاء هذا الاعتراف في ورقة بحثية نُشرت في أوائل سبتمبر تحت عنوان "لماذا تهلوس النماذج اللغوية"، وخلصت إلى نتيجة صادمة: "غالبية التقييمات السائدة تكافئ السلوك الهلوسي".
يكمن جوهر المشكلة في أن نماذج الذكاء الاصطناعي يتم تدريبها بطريقة تكافئ التخمين بدلاً من الإجابة الصحيحة فقط. قد ينتج عن التخمين إجابة تبدو مناسبة ظاهرياً، وهو ما يُعتبر أكثر إرضاءً للمستخدم من أن يخبره الذكاء الاصطناعي بأنه "لا يستطيع العثور على إجابة".
لاختبار هذه الفرضية، حاول فريق البحث جعل أحد روبوتات OpenAI يذكر تاريخ ميلاد أحد مؤلفي الورقة البحثية. قدم الروبوت ثلاث نتائج غير صحيحة، والسبب هو أن المدربين علموا المحرك أن يقدم إجابة بأي ثمن، بدلاً من الاعتراف بالجهل.
واعترفت OpenAI في تدوينة مصاحبة للبحث: "على مدى آلاف الأسئلة الاختبارية، ينتهي الأمر بالنماذج التي تخمن بأن تبدو أفضل في لوحات النتائج من النماذج الحذرة التي تعترف بعدم اليقين".
أوضح الباحثون أن هذا السلوك غير المفيد يتجذر في مرحلة التدريب المسبق (Pretraining) للنموذج. فعندما تحتوي البيانات التي يتم تغذية النموذج بها على أمثلة كثيرة لبيانات مؤكدة—مثل الهجاء الصحيح للكلمات—يتمكن الذكاء الاصطناعي من تعلم النمط الصحيح.
ولكن عندما لا تحتوي مجموعة البيانات على نمط قابل للتعلم—مثل تاريخ ميلاد شخص غير مشهور—يقوم الذكاء الاصطناعي بالمخاطرة والتخمين، وغالباً ما يخطئ.
وتشير الورقة البحثية إلى أن "معدل الهلوسة، بعد التدريب المسبق، يجب أن يكون على الأقل هو نفس نسبة الحقائق التي تظهر مرة واحدة فقط في بيانات التدريب". على سبيل المثال، إذا كانت 20% من الحقائق المتعلقة بأعياد الميلاد تظهر مرة واحدة فقط في بيانات التدريب، فمن المتوقع أن تهلوس النماذج في 20% على الأقل من الأسئلة المتعلقة بهذا الموضوع.
وتتفاقم المشكلة في مرحلة ما بعد التدريب، حيث إن العديد من معايير تقييم النماذج اللغوية تشبه الامتحانات البشرية، وتستخدم مقاييس ثنائية مثل "الدقة" أو "معدل النجاح". وبالتالي، فإن تحسين النماذج لتتفوق في هذه المعايير قد يعزز الهلوسات، لأن هذه الامتحانات تعاقب على عدم اليقين.
في النهاية، الأمر يتعلق بتقديم أي شيء، حتى لو كان خاطئاً. يشبه المؤلفون الأمر باختبار متعدد الخيارات، حيث إن اختيار إجابات عشوائية تبدو معقولة سيمنحك على الأرجح درجة أفضل من ترك الأسئلة فارغة.
يخلص الباحثون إلى أن الحل يكمن في تعديل أنظمة التقييم الحالية لتعيد تنظيم الحوافز، بحيث تكافئ التعبير المناسب عن عدم اليقين بدلاً من معاقبته. وهذا يمكن أن يزيل الحواجز أمام قمع الهلوسات ويفتح الباب أمام نماذج لغوية أكثر دقة في المستقبل.
نظرياً، يمكن لمصنعي نماذج الذكاء الاصطناعي القضاء على الهلوسات باستخدام مجموعة بيانات لا تحتوي على أخطاء، لكن الورقة تعترف بأن هذا السيناريو غير ممكن على الإطلاق، خاصة مع الكميات الهائلة من البيانات المستخدمة في التدريب.
الحل الأكثر واقعية، كما تقترح OpenAI، هو تكييف النماذج بحيث تستجيب في كثير من الأحيان بـ "لا أعرف"، حتى لو كان ذلك يثبط عزيمة المستخدمين. وتدعي الشركة أنها قامت بتكييف نظام تدريبها ليأخذ هذا في الاعتبار مع ChatGPT-5، ولكن التجربة العملية لا تزال تظهر أن النموذج الجديد يرتكب أخطاء فادحة في بعض الأحيان.