لأول مرة: OpenAI تكشف أرقام الصحة النفسية لمستخدمي ChatGPT

الكاتب: سامي - 27 أكتوبر, 2025
لأول مرة: OpenAI تكشف أرقام الصحة النفسية لمستخدمي ChatGPT

جدول المحتوى

لأول مرة: OpenAI تكشف عن أعداد مستخدمي ChatGPT الذين يعانون من أزمات نفسية

كشفت شركة OpenAI لأول مرة عن تقديرات لعدد مستخدمي ChatGPT عالميًا الذين قد تظهر عليهم علامات أزمة نفسية حادة أسبوعيًا. وأعلنت الشركة يوم الاثنين أنها عملت مع خبراء من جميع أنحاء العالم لتحديث روبوت المحادثة الشهير، بهدف تمكينه من التعرف على مؤشرات الاضطراب النفسي وتوجيه المستخدمين نحو الدعم المتخصص على أرض الواقع.

في الأشهر الأخيرة، انتهى الأمر بعدد متزايد من الأشخاص في المستشفيات أو إلى الطلاق أو حتى الوفاة بعد محادثات طويلة ومكثفة مع ChatGPT. ويزعم بعض أقاربهم أن الروبوت غذّى أوهامهم وجنون الارتياب لديهم. وقد أعرب أطباء نفسيون ومتخصصون في الصحة العقلية عن قلقهم إزاء هذه الظاهرة، التي يُشار إليها أحيانًا باسم "الذهان الرقمي" أو "ذهان الذكاء الاصطناعي". لكن حتى الآن، لم تكن هناك بيانات دقيقة حول مدى انتشارها.

أرقام مقلقة

قدّرت OpenAI أن حوالي 0.07% من مستخدمي ChatGPT النشطين أسبوعيًا يظهرون "علامات محتملة لحالات طوارئ نفسية مرتبطة بالذهان أو الهوس". كما أن 0.15% منهم "يجرون محادثات تتضمن مؤشرات صريحة على التخطيط للانتحار أو النية في ذلك".

وبحثت الشركة أيضًا في نسبة المستخدمين الذين يبدو أنهم يعتمدون عاطفيًا بشكل مفرط على الروبوت "على حساب علاقاتهم الواقعية أو صحتهم أو التزاماتهم". ووجدت أن حوالي 0.15% من المستخدمين النشطين أسبوعيًا يظهرون سلوكًا يشير إلى "مستويات مرتفعة" من التعلق العاطفي بـ ChatGPT. وتنوه الشركة إلى أن هذه الرسائل قد يكون من الصعب اكتشافها وقياسها نظرًا لندرتها النسبية، وقد يكون هناك بعض التداخل بين الفئات الثلاث.

وكان سام ألتمان، الرئيس التنفيذي لـ OpenAI، قد صرّح في وقت سابق من هذا الشهر أن لدى ChatGPT الآن 800 مليون مستخدم نشط أسبوعيًا. وبناءً على ذلك، تشير تقديرات الشركة إلى أن حوالي 560,000 شخص قد يتبادلون رسائل مع ChatGPT كل سبعة أيام تشير إلى أنهم يعانون من الهوس أو الذهان. بالإضافة إلى ذلك، هناك حوالي 2.4 مليون شخص آخرين قد يعبرون عن أفكار انتحارية أو يعطون الأولوية للتحدث مع ChatGPT على حساب أحبائهم أو دراستهم أو عملهم.

تحديثات GPT-5 لمعالجة المخاطر

تقول OpenAI إنها عملت مع أكثر من 170 طبيبًا نفسيًا وأخصائيًا نفسيًا وطبيب رعاية أولية من عشرات البلدان للمساعدة في تحسين استجابات ChatGPT في المحادثات التي تنطوي على مخاطر صحية نفسية خطيرة. فإذا بدا أن شخصًا ما لديه أفكار وهمية، فإن أحدث إصدار من GPT-5 مصمم للتعبير عن التعاطف مع تجنب تأكيد المعتقدات التي لا أساس لها من الصحة.

في مثال افتراضي ذكرته OpenAI، يخبر مستخدم ChatGPT أنه مستهدف من قبل طائرات تحلق فوق منزله. يشكره ChatGPT على مشاركة مشاعره، لكنه يشير إلى أنه "لا يمكن لأي طائرة أو قوة خارجية سرقة أفكارك أو زرعها".

وقام الخبراء الطبيون بمراجعة أكثر من 1,800 استجابة للنموذج تتضمن حالات محتملة من الذهان والانتحار والتعلق العاطفي، وقارنوا إجابات أحدث إصدار من GPT-5 بتلك التي أنتجها GPT-4o. وعلى الرغم من أن الأطباء لم يتفقوا دائمًا، إلا أن OpenAI تقول إنهم وجدوا أن النموذج الأحدث قلل من الإجابات غير المرغوب فيها بنسبة تتراوح بين 39% و52% في جميع الفئات.

يقول يوهانس هايديكه، قائد أنظمة السلامة في OpenAI: "الآن، نأمل أن يتم توجيه المزيد من الأشخاص الذين يعانون من هذه الحالات أو يواجهون هذه الطوارئ النفسية الشديدة إلى المساعدة المتخصصة، وأن يكونوا أكثر عرضة للحصول على هذا النوع من المساعدة أو الحصول عليه في وقت أبكر".

قيود وتحديات

على الرغم من أن OpenAI تبدو وكأنها نجحت في جعل ChatGPT أكثر أمانًا، إلا أن البيانات التي شاركتها لها قيود كبيرة. فقد صممت الشركة معاييرها الخاصة، ومن غير الواضح كيف تُترجم هذه المقاييس إلى نتائج واقعية. حتى لو قدم النموذج إجابات أفضل في تقييمات الأطباء، فلا توجد طريقة لمعرفة ما إذا كان المستخدمون الذين يعانون من الذهان أو الأفكار الانتحارية أو التعلق العاطفي غير الصحي سيطلبون المساعدة بالفعل بشكل أسرع أو يغيرون سلوكهم.

لم تكشف OpenAI بالضبط عن كيفية تحديدها متى قد يكون المستخدمون في حالة اضطراب نفسي، لكن الشركة تقول إن لديها القدرة على أخذ سجل محادثات الشخص بالكامل في الاعتبار. على سبيل المثال، إذا ادعى مستخدم لم يناقش العلوم مطلقًا مع ChatGPT فجأة أنه قام باكتشاف يستحق جائزة نوبل، فقد يكون ذلك علامة على تفكير وهمي محتمل.

هناك أيضًا عدد من العوامل التي يبدو أنها مشتركة بين الحالات المبلغ عنها من "ذهان الذكاء الاصطناعي". يصف العديد من الأشخاص الذين يقولون إن ChatGPT عزز أفكارهم الوهمية قضاء ساعات طويلة في التحدث إلى الروبوت، غالبًا في وقت متأخر من الليل. وقد شكل ذلك تحديًا لـ OpenAI لأن النماذج اللغوية الكبيرة أظهرت بشكل عام تدهورًا في الأداء مع طول المحادثات. لكن الشركة تقول إنها أحرزت الآن تقدمًا كبيرًا في معالجة هذه المشكلة.

يقول هايديكه: "نرى الآن تراجعًا أقل بكثير في الموثوقية مع استمرار المحادثات لفترة أطول". ويضيف أنه لا يزال هناك مجال للتحسين.

شارك المقالة:
15 مشاهدة
هل أعجبك المقال
0
0

مواضيع ذات محتوي مطابق

التصنيفات تصفح المواضيع
youtubbe twitter linkden facebook