محتويات المقال
OpenAI تبدأ نشر التنبؤ بالعمر عبر حسابات ChatGPT الاستهلاكية
في 20 يناير 2026، شرعت OpenAI في نشر تقنية التنبؤ بالعمر على حسابات ChatGPT الاستهلاكية، خطوة كبيرة نحو تعزيز السلامة لدى المستخدمين الأصغر سنًا. يعتمد النظام على نماذج التعلم الآلي لتحليل سلوك المستخدم وسلوك الكتابة وأنماط التفاعل لتقدير احتمالية أن يكون المستخدم دون 18 عامًا، متجاوزًا الاعتماد على التصريحات الذاتية غير الموثوقة.
الخلفية: أهمية التحقق من العمر الآن
أشارت OpenAI إلى هذا التغيير لأول مرة في سبتمبر 2025، معترفة بأن مربعات الاختيار البسيطة للعمر تفشل في منع القاصرين من الوصول إلى محتوى أو ميزات غير مناسبة. يزداد الضغط التنظيمي من قوانين الاتحاد الأوروبي للذكاء الاصطناعي وقوانين سلامة الطفل في أمريكا، مطالبًا بإجراءات استباقية. يواجه ChatGPT، بملايين المستخدمين اليوميين بما فيهم الطلاب، تدقيقًا حول التعرض لمناقشات ناضجة أو ردود غير مفلترة.
يستمد نموذج التنبؤ من مجموعات بيانات مجهولة المصدر ضخمة لتفاعلات المستخدمين. يركز على إشارات مثل تعقيد المفردات ومواضيع الاستعلامات وطول الجلسات وحتى أنماط استخدام الأجهزة. أظهرت الاختبارات الأولية تفوقًا بنسبة 20-30% في الدقة مقارنة بالطرق التقليدية، مع التأكيد من OpenAI على أنه احتمالي لا قاطع.
التفاصيل التقنية: كيفية عمل النظام
عند التسجيل أو أثناء تفاعلات رئيسية، يعمل النموذج في الخلفية. إذا أشار إلى مستخدم محتمل القاصر، يقيد الوصول إلى ميزات مثل وضع الصوت المتقدم أو عمليات البحث غير المفلترة. بالنسبة للبالغين الذين يُصنفون خطأ، يتاح آلية عكس: يقدم المستخدمون صورة سيلفي تتحقق منها خدمة Persona الخارجية المستخدمة في منصات مثل Instagram وTikTok.
تحليل وجه Persona يتوافق مع معايير الخصوصية، يعالج الصور محليًا قدر الإمكان ويحذفها بعد التحقق. أفادت OpenAI بنسب خطأ إيجابي أقل من 5% في الاختبارات الأولية، محسنة بدورات تغذية راجعة فورية. يتكيف النظام إقليميًا، مع مراعاة الاختلافات الثقافية في الاستعلاماتقد يناقش الأوروبيون GDPR أكثر، مما يؤثر على الإشارات.
- الإشارات الرئيسية: سرعة الكتابة، استخدام الإيموجي، تنوع المواضيع، نشاط الوقت.
- هيكل النموذج: نسخة محسنة من محولات GPT، مدربة على سجلات تفاعل مصنفة بالعمر.
- حماية الخصوصية: لا تخزين بيانات خام؛ إشارات مجمعة فقط لتحسين النموذج.
التأثير على المستخدمين والمطورين
بالنسبة للمستخدمين العاديين، التغيير سلسلن يلاحظ معظم البالغين شيئًا. يواجه القاصرون توجيهات لطيفة نحو أوضاع صديقة للأطفال أو موافقة أولياء الأمور. يكتسب المطورون دمج APIs نقاط نهاية جديدة للردود المقيدة بالعمر، أمر حاسم لتطبيقات التعليم والألعاب.
يُستخدم النشر كتجربة حية. تتبع OpenAI مقاييس الأداء مثل طلبات العكس ورضا المستخدمين، تغذيها أسبوعيًا للتكرار. التعاون مع جمعية علم النفس الأمريكية وConnectSafely يوجه التعديلات، مضمونًا السلامة النفسية إلى جانب الدقة التقنية.
الآثار الأوسع على سلامة الذكاء الاصطناعي
يضع التنبؤ بالعمر سابقة للديانات السلوكية في الذكاء الاصطناعي. قد تتحقق تقنيات مشابهة من مستويات الخبرة (مثل حظر استعلامات كود معقدة للمبتدئين) أو تكشف البوتات. يقلق النقاد من تآكل الخصوصية، لكن OpenAI ترد بخيارات الانسحاب والتدقيق الشفاف.
في سياق التحديثات الأخيرة مثل تعديل شخصية GPT-5.2 في 22 يناير وتحسينات بحث الصوت في 25 يناير، تعزز هذه الطبقة سلامة منصة ناضجة كأداة مؤسسية. مع 1.3 مليون مستخدم أسبوعي في العلوم والرياضيات حتى يناير 2026، يظل توازن الانفتاح والحماية مفتاح النمو.
توقع تحسينات قريبة؛ تصف OpenAI هذا 'معلم لا نهاية'. مع انتشار الذكاء الاصطناعي في الحياة اليومية، تبرز مثل هذه الابتكارات التوازنات: سلامة محسنة مقابل تحديات خصوصية دقيقة.