محتويات المقال
يعاني النهج التقليدي المتبع في تعديل المحتوى بالذكاء الاصطناعي من عيوب جوهرية، مما يترك المنصات عرضة لمراجعات بشرية بطيئة وتفاعلية لا تتجاوز دقة نتائجها نسبة 50%. ولحل هذه العقبة الحرجة، أطلق السيد Brett Levenson، المسؤول السابق في شركة Facebook وشركة Apple، شركة ناشئة تحمل اسم Moonbounce، والتي نجحت للتو في جمع تمويل بقيمة 12 مليون دولار. وسيسهم هذا الاستثمار، الذي قادته شركة Amplify Partners وشركة StepStone Group، في توسيع نطاق محرك تحكم يعتمد على الذكاء الاصطناعي لتحويل سياسات الأمان الثابتة إلى حواجز حماية فورية يمكن التنبؤ بها.
وخلال فترة إدارته لقطاع نزاهة الأعمال في شركة Facebook عام 2019، اكتشف السيد Levenson أن المراجعين البشريين كانوا مجبرين على حفظ مستندات سياسات مترجمة تتكون من 40 صفحة. وكان لديهم ثوانٍ معدودة لتقييم المحتوى المُبلغ عنه، مما جعل العملية غير فعالة إلى حد كبير. وقد أدى الانفجار في استخدام الذكاء التوليدي إلى مضاعفة هذه المسؤولية، حيث تقدم روبوتات الدردشة أحياناً إرشادات حول إيذاء النفس أو تولد صوراً غير توافقية.
بنية "السياسة ككود برمجي"
تعالج شركة Moonbounce هذه الثغرات من خلال مفهوم يُعرف باسم "السياسة ككود برمجي" (Policy as code)، والذي يربط المنطق القابل للتنفيذ بعمليات الإنفاذ بشكل وثيق. وقد دربت الشركة نموذجاً لغوياً كبيراً (LLM) خاصاً بها لتقييم المحتوى أثناء وقت التشغيل (Runtime) بناءً على مستندات سياسة العميل المحددة. ويوفر هذا النظام استجابة حاسمة في غضون 300 مللي ثانية أو أقل، مما يتيح للمنصات اعتراض المشكلات قبل وصولها إلى المستخدم.
وبناءً على إعدادات المنصة، يمكن للمحرك حظر المحتوى عالي المخاطر تلقائياً وبشكل فوري، أو إبطاء انتشاره في انتظار مراجعة بشرية ثانوية. ومن خلال العمل كطبقة خارجية وسيطة بين المستخدم وروبوت الدردشة، تتجنب منصة Moonbounce الإرهاق الناتج عن معالجة نوافذ السياق الضخمة التي يجب على نماذج الذكاء الاصطناعي الأصلية التعامل معها.
النطاق التشغيلي والتوجيه التكراري
وتعالج المنصة بالفعل أكثر من 40 مليون مراجعة يومية لأكثر من 100 مليون مستخدم نشط يومياً عبر قطاعات مختلفة. وتشمل قائمة العملاء الحاليين شركة Channel AI الناشئة في مجال الرفقة الافتراضية، وشركة Civitai لتوليد الصور، ومنصات تقمص الأدوار مثل منصة Dippy AI ومنصة Moescape. وبالنسبة لهذه الشركات، يتحول دمج البنية التحتية القوية للأمان بسرعة من عبء للامتثال إلى ميزة تنافسية أساسية في المنتج.
وبالنظر إلى المستقبل، يعكف السيد Levenson والمؤسس المشارك Ash Bhardwaj على تطوير ميزة تُسمى "التوجيه التكراري" (Iterative steering). واستجابةً للحوادث المأساوية التي تورطت فيها منصات مثل منصة Character AI، ستسمح هذه القدرة للنظام بإعادة توجيه المحادثات الضارة بشكل نشط. وبدلاً من إصدار رفض قاطع، سيقوم المحرك بتعديل المطالبات (Prompts) في الوقت الفعلي لإجبار روبوت الدردشة على التحول إلى وضع الاستماع الداعم والمفيد.
رأيي: التحول نحو حواجز الحماية الخارجية
يمثل الاستثمار البالغ 12 مليون دولار في شركة Moonbounce تحولاً حاسماً في كيفية تعامل صناعة التكنولوجيا مع مسؤوليات الذكاء الاصطناعي. ومن الواضح أن فرق الأمان الداخلية تكافح لمواكبة الحجم الهائل للمخرجات التوليدية، كما يتضح من الخلافات الأخيرة المحيطة بنماذج مثل نموذج Grok التابع لشركة xAI. ومن خلال الاستعانة بمصادر خارجية لتعديل المحتوى عبر نموذج لغوي كبير متخصص يركز على وقت التشغيل، يمكن للمنصات التخفيف من المخاطر القانونية دون إضعاف أداء نموذجها الأساسي.
علاوة على ذلك، فإن إحجام السيد Levenson عن فكرة الاستحواذ وتقييد التكنولوجيا من قبل شركة عملاقة مثل شركة Meta يبرز حاجة السوق الأوسع إلى بنية تحتية مستقلة للأمان. ومع توسع تطبيقات الذكاء الاصطناعي، ستصبح حواجز الحماية الموضوعية والفورية أساسية تماماً مثل الاستضافة السحابية. وفي النهاية، فإن الشركات الناشئة القادرة على توفير إنفاذ للسياسات في أقل من 300 مللي ثانية هي التي ستحدد الجدوى التجارية للذكاء الاصطناعي الموجه للمستهلكين.