محتويات المقال
وكلاء الذكاء الاصطناعي: من مساعدين إلى تهديدات خفية
أصدرت شركة مايكروسوفت تحذيراً شديد اللهجة في تقريرها Cyber Pulse، حيث أشارت إلى أن وكلاء الذكاء الاصطناعي في البيئات التجارية قد يتحولون إلى "عملاء مزدوجين" إذا منحوا صلاحيات زائدة دون إجراءات أمنية قوية. يعتمد أكثر من 80% من شركات Fortune 500 حالياً على هذه الوكلاء، المبنية باستخدام أدوات low-code وno-code مثل Microsoft Agent Builder وCopilot Studio، وفقاً لبيانات مايكروسوفت الخاصة.
صدر التقرير في 10 فبراير 2026، ويبرز كيف يستغل المهاجمون هذه الوكلاء عبر تقنيات مثل تسميم الذاكرةالتي تُحرف عملية التفكير تدريجياًوالمدخلات الخادعة التي تدفعها لأداء إجراءات ضارة. يُعرف هذا بمشكلة "Confused Deputy"، حيث يعالج الوكلاء تعليمات اللغة الطبيعية المختلطة بالبيانات، مما يصعب التمييز بين المهام الشرعية والأوامر الخبيثة.
لماذا يهم هذا الشركات؟
يتقدم نشر وكلاء الذكاء الاصطناعي بسرعة تفوق الضوابط الأمنية، مما يخلق ثغرات خاصة مع "الذكاء الاصطناعي الظليل"الوكلاء غير المصرح بها خارج رؤية فرق تكنولوجيا المعلومات. كشف استطلاع لـ1700 متخصص في أمن البيانات أن 29% من الموظفين يستخدمون وكلاء AI لمهام غير مصرحة، مما يزيد من مخاطر تسرب البيانات أو الاستخدام السيء. بالنسبة للأعمال، يعني ذلك إمكانية تصدير بيانات حساسة عبر إجراءات آلية، محولاً الأدوات المفيدة إلى جواسيس غير مقصودة تعمل لصالح المهاجمين.
تخيل سيناريو واقعياً: ينشر فريق مبيعات وكيل ذكاء اصطناعي عبر أدوات no-code لتحليل بيانات العملاء وإعداد التقارير. يُدرج مهاجم تعليمات خبيثة في مرفق بريد إلكتروني بريء، مستغلاً صلاحيات الوكيل الواسعة على أنظمة CRM. يقوم الوكيل حينها بتصدير قوائم العملاء السرية إلى خادم خارجي بهدوء، بينما يبدو وكأنه يؤدي مهام روتينية. قد يغفل البشر عن ذلك لأن الوكلاء تعمل بشكل مستقل، مولدة وكلاء فرعية أو تشغيل محطات متعددة دون رقابة.
توصيات مايكروسوفت للتخفيف من المخاطر
لتعزيز الحماية، تدعو مايكروسوفت إلى تطبيق مبادئ الثقة الصفرية المخصصة لـAI: صلاحيات أقل ما يمكن، التحقق الصريح من كل طلب، وتصميم الأنظمة بافتراض حدوث الاختراق. تشمل الإجراءات الرئيسية:
- توثيق غرض كل وكيل ومنحه الصلاحيات الدنيا اللازمة.
- تعزيز الرصد لتتبع سلوك الوكلاء واكتشاف الانحرافات.
- استخدام بيئات تحتويم مع حمايات أمان محددة للمهام في النماذج والتعليمات.
- إنشاء هويات للوكلاء عبر Microsoft Entra Agent ID لضمان المساءلة.
- توفير منصات مصرحة، خطط استجابة لحوادث، وإدارة مخاطر متكاملة.
تستفيد مايكروسوفت من أدواتها الأمنية مثل Defender وSecurity Copilot، مع بياناتها الضخمة، لكشف الهجمات على الوكلاء مثل حملات التصيد.
الآثار المستقبلية
تتوقع مايكروسوفت أن يكون عام 2026 "عام وكلاء الذكاء الاصطناعي"، مع توقعات IDC بـ1.3 مليار وكيل مدمج في الأعمال بحلول 2028، يدير المهام ونقل البيانات واتخاذ القرارات. ستظهر شبكات وكلاء تُدير بعضها البعض، مما يضخم المخاطر إذا تأخرت الحوكمة. ومع ذلك، يفتح ذلك فرص دفاعية: يمكن للأمان المدعوم بالذكاء الاصطناعي مواجهة وكلاء المهاجمين، مما يعزز ثقافة تعاون آمن بين البشر والآلات. على قادة تكنولوجيا المعلومات والمطورين، يتطلب الأمر التركيز على حوكمة الوكلاء الآن للحفاظ على الابتكار مع الانتشار المتسارع.
أكد Charlie Bell، نائب رئيس تنفيذي للأمن في مايكروسوفت، في نقاش حديث أن الوكلاء قد تُحرف للعمل لصالح المهاجمين، مما يبرز المخاطر الإنسانية: يحتاج الموظفون الذين يعتمدون على هذه الأدوات إلى ضمان عدم خيانة زملائهم الرقميين. تُعرض الشركات التي تتجاهل هذه التحذيرات ليس فقط للاختراقات، بل لفقدان الثقة في سير العمل المدعوم بالذكاء الاصطناعي.