Breaking News
القائمة

باحثة في OpenAI تستقيل بسبب إعلانات ChatGPT

باحثة في OpenAI تستقيل بسبب إعلانات ChatGPT
Advertisement

محتويات المقال

استقالة باحثة تعكس خلافات داخلية

استقالت زوي هيتزيغ، باحثة في OpenAI، في اليوم نفسه الذي بدأت فيه الشركة اختبار الإعلانات داخل ChatGPT، محذرة من أن هذا الخطوة قد تحول الذكاء الاصطناعي إلى أداة تلاعب تشبه فيسبوك. تبرز هذه الاستقالة التوترات المتزايدة داخل OpenAI بين احتياجات الإيرادات وثقة المستخدمين.

بدأت OpenAI اختبار الإعلانات في 9 فبراير 2026 للمستخدمين المسجلين دخولهم في الولايات المتحدة على الخطط المجانية وخطة Go الأساسية. تظهر الإعلانات أسفل الردود، مع تسميتها بوضوح كمحتوى مدعوم، وتُخصص بناءً على موضوع الدردشة الحالي وموقع المستخدم ولغته، دون مشاركة محادثات سابقة أو بيانات شخصية مع المعلنين.

تفاصيل طرح الإعلانات وخيارات المستخدمين

تبقى الخطط المدفوعة مثل Plus وPro وBusiness وEnterprise وEducation خالية من الإعلانات. يمكن لمستخدمي الخطة المجانية الانسحاب من الإعلانات مقابل قيود على عدد الرسائل اليومية وتوليد الصور والبحث العميق. تستثني OpenAI الإعلانات قرب مواضيع حساسة مثل الصحة والصحة النفسية والسياسة أو الخدمات المالية أو المواعدة، أو للمستخدمين دون 18 عامًا.

  • تتناسب الإعلانات مع السياق، مثل عرض خدمات توصيل البقالة في دردشات الوصفات.
  • يسيطر المستخدمون على تخصيص الإعلانات ويعرضون سجلها ويحذفون البيانات ويرسلون تعليقات.
  • يحصل المعلنون على إحصاءات جماعية فقط دون بيانات المستخدمين.

تختبر شركة Target إعلانات سياقية عبر منصة Roundel، مؤكدة عدم تأثيرها على ردود ChatGPT.

ردود المنافسين وسياق الصناعة

أذاعت Anthropic، المنافس الرئيسي، إعلانات في السوبر بول يوم 8 فبراير 2026 تسخر من فكرة الإعلانات في الذكاء الاصطناعي بعروض لإعلانات مزعجة غير مناسبة. وصفها الرئيس التنفيذي لـOpenAI سام ألتمان بأنها "غير صادقة" وسمى Anthropic "شركة استبدادية".

يحدث هذا وسط منافسة من نماذج Gemini لجوجل وClaude لـAnthropic، بينما تستهدف OpenAI طرح عام أولي في 2026. منذ إطلاق ChatGPT في 2022، تجنبت الإعلانات التقليدية، لكن ضغوط المستثمرين للربح تزداد.

لماذا يهم هذا الأمر

تُدخل الإعلانات حوافز ربحية في ردود الذكاء الاصطناعي، مما قد يحيز التوصيات التي يعتمد عليها المستخدمون في الشراء أو النصائح. حتى لو سميت، فإن التأثيرات الدقيقة في واجهة الدردشة تختلف عن اللافتات على المواقع، مما يعقد الشفافية. حذرت هيتزيغ من أن الإعلانات على أرشيف المحادثات قد تتلاعب بالمستخدمين بطرق غير مرئية.

يخشى نشطاء الخصوصية من التحليل الشخصي من خلال تحليل الدردشات، رغم ضمانات OpenAI. يستحضر النقاد "التدهور التدريجي" حيث تتدهور المنصات بعد النمو للربح.

سيناريو واقعي: استفسار تسوق للمستخدم

تخيل مستخدمًا يسأل ChatGPT عن توصيات حواسيب محمولة. يقدم الرد قائمة محايدة، لكن أسفله إعلان مستهدف لعلامة تجارية بناءً على الاستعلام. ينقر المستخدم ويشتري، غير مدرك إن كانت صياغة الذكاء الاصطناعي قد فضلت تلك العلامة بسبب الإيرادات. مع الوقت، قد تغير هذه التكرارات عاداته، مما يقوض الثقة في الذكاء الاصطناعي كمستشار محايد.

التداعيات المستقبلية

قد يحتاج المنظمون إلى قواعد جديدة لإعلانات الذكاء الاصطناعي، تجمع بين قوانين الإعلان الرقمي وحوكمة الذكاء الاصطناعي للكشف في واجهات الدردشة. قد يُطبّع نموذج OpenAI الإعلانات عبر أدوات الذكاء الاصطناعي، مما يضغط على المنافسين الخاليين من الإعلانات ويعيد تشكيل أخلاقيات الصناعة. النجاح قد يمول ميزات متقدمة؛ الفشل قد يسرع هجرة المستخدمين إلى بدائل تركز على الخصوصية، مؤثرًا في دور الذكاء الاصطناعي اليومي.

بالنسبة للبشر خلف التكنولوجيا، مثل هيتزيغ، يبرز هذا المخاطر الشخصية: يزن الباحثون سلامة المهمة مقابل تحولات الشركة، مذكرين إيان الذكاء الاصطناعي يعتمد على من يبنونه.

المصادر: arstechnica.com ↗
Advertisement
هل أعجبك هذا المقال؟

بحث في الموقع