محتويات المقال
كشفت دراسة حديثة قادها باحثون في معهد ماساتشوستس للتكنولوجيا (MIT) عن فجوة مثيرة للقلق بين القدرات المتسارعة لأنظمة "وكلاء الذكاء الاصطناعي" (AI Agents) وبين مستوى الشفافية المتعلق ببروتوكولات السلامة الخاصة بها. وفي الوقت الذي تتحول فيه صناعة التكنولوجيا من روبوتات الدردشة السلبية إلى عصر "الذكاء الاصطناعي الوكالي" (Agentic AI)وهي أنظمة قادرة على تنفيذ مهام معقدة وتصفح الويب والتحكم في البرمجيات بشكل مستقلتوضح الدراسة أن المطورين يطلقون هذه الأدوات القوية غالباً دون نشر معلومات تفصيلية حول ما إذا كانت قد خضعت لاختبارات إجهاد لضمان السلامة، أو كيفية إجراء تلك الاختبارات. هذا النقص في الإفصاح يترك المؤسسات والمستخدمين النهائيين في حالة من الغموض بشأن المخاطر المحتملة المرتبطة بنشر برمجيات مستقلة في بيئات عمل حساسة.
يسلط البحث الضوء على فجوة نضج حرجة في قطاع الذكاء الاصطناعي. فبينما يتم الترويج لمقاييس الأداء وسرعة المعالجة والدقة في المواد التسويقية، غالباً ما تغيب "وثائق السلامة"التي تفصل جهود الفريق الأحمر (Red-teaming)، وأنماط الفشل، وضوابط الحماية ضد الإجراءات غير المقصودةأو تكون غامضة وسطحية. ويعد هذا الإغفال خطيراً بشكل خاص نظراً لأن وكلاء الذكاء الاصطناعي يختلفون جوهرياً عن النماذج اللغوية الكبيرة (LLMs) القياسية؛ فهي لا تكتفي بتوليد النصوص، بل تتخذ إجراءات فعلية. ويشير غياب تقارير السلامة الموحدة إلى أن السباق لنشر الوكلاء المستقلين يسبق حالياً التزام الصناعة بمعايير سلامة يمكن التحقق منها.
صعود الذكاء الاصطناعي الوكالي ومخاطر الاستقلالية
لفهم خطورة النتائج التي توصل إليها معهد MIT، من الضروري التمييز بين الذكاء الاصطناعي التوليدي التقليدي والموجة الجديدة من الذكاء الاصطناعي الوكالي. تعمل النماذج اللغوية القياسية بشكل أساسي كمحركات لاسترجاع المعلومات وتوليفها؛ حيث تستجيب للمطالبات بنصوص أو وسائط. في المقابل، تم تصميم وكلاء الذكاء الاصطناعي بمستوى من الاستقلالية يسمح لهم بصياغة الخطط، وتقسيم الأهداف إلى مهام فرعية، والتفاعل مع واجهات برمجة التطبيقات (APIs) الخارجية أو أنظمة التشغيل لتنفيذ تلك الخطط. على سبيل المثال، قد يُكلف الوكيل بمهمة "تخطيط مسار سفر"، وهو ما لا يتضمن مجرد كتابة جدول زمني، بل الدخول فعلياً إلى قواعد بيانات الطيران، وحجز التذاكر، وإرسال دعوات التقويم.
هذا التحول من التوليد إلى الفعل يقدم متجهات مخاطر جديدة كلياً لا تستطيع معايير السلامة الثابتة رصدها بشكل كافٍ. فبينما قد ينتج مولد النصوص محتوى متحيزاً، يمتلك الوكيل المستقل القدرة على حذف الملفات عن طريق الخطأ، أو إنفاق الأموال، أو كشف بيانات خاصة عبر عمليات دمج مع أطراف ثالثة. وتبرز دراسة معهد MIT أن إفصاحات السلامة الحالية تعتمد غالباً على معايير قديمة مصممة لروبوتات الدردشة، وتفشل في معالجة المخاطر الحركية للوكلاء الذين يمكنهم التلاعب بالبيئات الرقمية. وبدون اختبارات محددة لظاهرة "التقارب الأداتي" (Instrumental Convergence)حيث يسعى الوكيل لتحقيق هدف ما إلى ما لا نهاية دون مراعاة للأضرار الجانبيةلا يمكن للمستخدمين التأكد من أن الوكيل سيتصرف بشكل متوقع في سيناريوهات العالم الحقيقي.
العجز في شفافية اختبارات الأمان
يركز جوهر نقد الباحثين على غموض عملية الاختبار نفسها. ففي العديد من الحالات التي حللتها الدراسة، قدم المطورون تأكيدات عالية المستوى بشأن السلامة دون تقديم الأدلة التقنية لدعمها. وغالباً ما كانت التقارير التفصيلية حول "الفريق الأحمر"وهي ممارسة اختراق الذكاء الاصطناعي الخاص بالشركة أخلاقياً لاكتشاف الثغراتغائبة فيما يتعلق بالقدرات الوكالية المحددة للنماذج. بدلاً من ذلك، أشارت الإفصاحات بشكل متكرر إلى سلامة النموذج الأساسي، متجاهلة حقيقة أن طبقة "الوكيل" تضيف منطقاً معقداً وقدرات استخدام أدوات تتطلب التحقق من سلامتها بشكل منفصل.
يخلق هذا العجز في الشفافية عقبة كبيرة أمام حوكمة الشركات والامتثال التنظيمي. إذ يضطر قادة تكنولوجيا المعلومات الذين يتطلعون إلى دمج وكلاء الذكاء الاصطناعي في سير عملهم لمهام مثل البرمجة الآلية أو دعم العملاء، إلى الاعتماد على الثقة بدلاً من التحقق. وتشير الدراسة إلى أنه بدون إطار عمل موحد للإبلاغ عن اختبارات السلامة الخاصة بالوكلاءمثل كيفية تعامل الوكيل مع التعليمات الغامضة أو منع هجمات حقن الأوامر أثناء استخدام الأدواتيظل النظام البيئي عرضة لإخفاقات غير متوقعة قد تكون لها عواقب مالية أو تتعلق بالسمعة.
| الميزة | النموذج اللغوي القياسي (Chatbot) | الذكاء الاصطناعي الوكالي (Agentic AI) |
|---|---|---|
| الوظيفة الأساسية | توليد وتحليل المحتوى | تنفيذ المهام واستخدام الأدوات |
| نوع التفاعل | سلبي (ينتظر التوجيه) | نشط (حلقات عمل وتصحيح ذاتي) |
| الخطر الرئيسي | المعلومات المضللة / التحيز | إجراءات غير مقصودة / فقدان بيانات |
| متطلبات السلامة | تصفية المحتوى | تحديد الصلاحيات واختبار بيئة الصندوق الرملي (Sandbox) |
رأيي: الحاجة إلى 'ملصق حقائق' للذكاء الاصطناعي
تعتبر النتائج الصادرة عن معهد MIT بمثابة جرس إنذار ضروري لصناعة منتشية بإمكانات الاستقلالية. ومع دخولنا عام 2026، أصبحت ثقافة "تحرك بسرعة وحطم الأشياء" خطيرة بشكل متزايد عندما تكون "الأشياء" التي يتم تحطيمها هي قواعد بيانات المؤسسات أو المعاملات المالية. يجب أن تتحرك الصناعة نحو اعتماد "ملصق حقائق" موحد لوكلاء الذكاء الاصطناعي، يوضح صراحة ليس فقط ما يمكن للنموذج فعله، بل بالضبط كيف تم اختباره ضد الإخفاقات المستقلة. وإلى أن يُجبر المطورونسواء بطلب السوق أو التنظيمعلى الكشف عن مقاييس السلامة المحددة هذه، يجب على المؤسسات التعامل مع الذكاء الاصطناعي الوكالي كبرمجيات تجريبية عالية المخاطر بدلاً من كونها بنية تحتية جاهزة للإنتاج.
أسئلة شائعة
ما الفرق بين روبوت الدردشة ووكيل الذكاء الاصطناعي؟
بينما يجيب روبوت الدردشة بشكل سلبي على الأسئلة بناءً على بيانات تدريبه، يمكن لوكيل الذكاء الاصطناعي استخدام أدوات برمجية، وتصفح الويب، وأداء مهام متعددة الخطوات لتحقيق هدف ما دون تدخل بشري مستمر.
لماذا تعتبر إفصاحات السلامة الحالية غير كافية؟
تركز معظم الإفصاحات الحالية على سلامة توليد النصوص (مثل منع خطاب الكراهية) ولكنها تفشل في توثيق اختبارات المخاطر السلوكية، مثل قيام الوكيل بحذف بيانات أو إنفاق أموال عن طريق الخطأ أثناء محاولة إكمال مهمة.
ما الذي يجب أن تبحث عنه الشركات عند اعتماد وكلاء الذكاء الاصطناعي؟
يجب البحث عن تقارير فنية مفصلة تذكر تحديداً "الفريق الأحمر للوكلاء" (Agentic Red Teaming) أو "معايير سلامة استخدام الأدوات"، بدلاً من مجرد ادعاءات السلامة العامة الموروثة من النموذج اللغوي الأساسي.