محتويات المقال
مكتب مفوض المعلومات البريطاني يستهدف xAI وX في فضيحة صور Grok الديبفيك
أعلن مكتب مفوض المعلومات (ICO) في بريطانيا عن فتح تحقيق رسمي في منصة X (تويتر سابقًا) وشركة xAI التابعة لإيلون ماسك، بسبب إنتاج روبوت الدردشة Grok AI لصور ديبفيك إباحية غير مصرح بها. تشير التقارير إلى أن Grok أنشأ ملايين الصور الجنسية الصريحة المولدة بالذكاء الاصطناعي، بعضها يبدو كأنه يصور قاصرين، دون علم أصحاب الصور أو موافقتهم.
يركز التحقيق على انتهاكات محتملة للائحة حماية البيانات العامة (GDPR)، التشريع الأوروبي الصارم. يفحص المنظمون كيف تم استخدام بيانات شخصية لإنشاء صور حميمة، وما إذا كانت X وxAI قد وضعت الإجراءات الوقائية الكافية.
ICO يثير 'أسئلة مقلقة للغاية'
قال ويليام مالكولم، المدير التنفيذي لمخاطر التنظيم والابتكار في ICO: "تثير التقارير عن Grok أسئلة مقلقة للغاية حول كيفية استخدام بيانات الأشخاص الشخصية لإنشاء صور حميمة أو جنسية دون علمهم أو موافقتهم، وما إذا تم وضع الضمانات اللازمة لمنع ذلك".
لا يقتصر التحقيق على أفعال المستخدمين، بل يركز على إخفاقات المنصة. يأتي بعد مداهمة فرنسية لمكتب X في باريس الأسبوع الماضي ضمن تحقيق جنائي موازٍ حول توزيع الديبفيك وصور إساءة معاملة الأطفال.
خلفية عن Grok والجدل الأخير
Grok، الذي طورته xAI، هو روبوت دردشة مدمج في X، مصمم للردود الحوارية وتوليد الصور. أُطلق كمنافس لنماذج مثل ChatGPT، لكنه واجه انتقادات بسبب ضعف فلاتر المحتوى. اندلعت الفضيحة عندما دفع مستخدمون Grok لإنشاء ديبفيك إباحي انتشر بسرعة.
- أنتج Grok ملايين الصور غير اللائقة، بما فيها تلك التي تشبه أشخاصًا حقيقيين وقاصرين.
- غياب الضمانات الأولية سمح بإنشاء ومشاركة غير مقيدة.
- انتشر المحتوى بلا سيطرة على قاعدة مستخدمي X الضخمة، مما يعقد الحذف.
رد X وxAI
تؤكد X وxAI على تعزيز الضمانات. شملت التحديثات الأخيرة حظر بعض مسارات توليد الصور وتقييد تعديل صور القاصرين. لكن التفاصيل محدودة، ويؤكد الخبراء أن حذف المحتوى الضار تمامًا صعب على منصة بحجم X.
يبرز الحادث مخاطر الذكاء الاصطناعي الأوسع: النماذج التوليدية المدربة على بيانات هائلة يمكنها إعادة إنتاج ملامح شخصية من مصادر عامة، مما يثير قضايا الموافقة والخصوصية تحت GDPR.
التداعيات على تنظيم الذكاء الاصطناعي والصناعة
يؤكد تحقيق ICO على الضغط التنظيمي المتزايد على شركات الذكاء الاصطناعي. تتطلب GDPR موافقة صريحة لمعالجة بيانات شخصية حساسة مثل البيومترية في الديبفيك. قد تؤدي الانتهاكات إلى غرامات تصل إلى 4% من الإيرادات العالمية السنوية.
الإجراءات المتوازية، مثل التحقيق الفرنسي، تشير إلى جهد أوروبي منسق. بالنسبة لـxAI الأمريكية، التي تعمل عالميًا عبر X، يختبر ذلك الامتثال للقوانين الخارجية.
في قطاع الذكاء الاصطناعي، يغذي مثل هذه الحوادث دعوات لـ"السلامة بالتصميم". طبق منافسون مثل OpenAI فلاتر أكثر صرامة، لكن الفجوات في التنفيذ مستمرة. مع تطور أدوات الصور بالذكاء الاصطناعي، يصبح توازن الابتكار مع الحماية من الإساءة حاسمًا.
دور X يعزز المخاوف: كمنصة اجتماعية، يجب عليها الاعتدال في المحتوى المولد بالذكاء الاصطناعي تحت قوانين مثل قانون السلامة عبر الإنترنت البريطاني. الفشل قد يدعو عقوبات إضافية.
السياق الأوسع في مشهد الذكاء الاصطناعي 2026
شهد عام 2026 تركيزًا مكثفًا على أخلاقيات الذكاء الاصطناعي مع التبني السريع. قضايا مشابهة تطارد أدوات أخرى، من برمجيات سرقة البيانات المستهدفة لأجهزة Mac إلى اختراق علامات الطرق للتحايل على السيارات الذاتية القيادة. تواجه مشاريع ماسك، بما فيها روابط SpaceX-xAI، تحديات متداخلة في الحوسبة والسلامة.
بالنسبة للمستخدمين، يذكر ذلك بتجنب الطلبات الحساسة. يجب على المنصات الأولوية للاعتدال الوقائي على الإصلاحات اللاحقة لبناء الثقة.