Breaking News
القائمة
Advertisement

شركة Microsoft تعالج بصمت ثغرات حرجة في Copilot هددت بتسريب بيانات الشركات

شركة Microsoft تعالج بصمت ثغرات حرجة في Copilot هددت بتسريب بيانات الشركات
Advertisement

محتويات المقال

عالجت شركة Microsoft بصمت ثلاث ثغرات أمنية حرجة في نظام Microsoft 365 Copilot وميزة Copilot Chat في متصفح Edge، والتي كانت تهدد بتسريب بيانات مؤسسية حساسة. وكشفت هذه العيوب، الناتجة عن ضعف في معالجة أوامر الإدخال، عن مساحة هجوم واسعة تستهدف الشركات التي تعتمد على الذكاء الاصطناعي لمعالجة رسائل البريد الإلكتروني والمستندات والمحادثات الخاصة.

صنّف مركز الاستجابة الأمنية التابع للشركة هذه الثغرات بدرجة "حرجة" ضمن فئة الكشف عن المعلومات. ولحسن حظ مسؤولي تكنولوجيا المعلومات، نُشرت الإصلاحات بالكامل على مستوى الخوادم، مما يعني عدم الحاجة إلى إجراء أي تحديثات يدوية لتأمين الأنظمة المتأثرة. ويأتي هذا الإفصاح العلني كجزء من مبادرة الشفافية الجديدة التي تنتهجها الشركة لخدماتها السحابية.

خطر حقن الأوامر (Command Injection)

تشترك الثغرات الثلاث في أنماط هجوم متشابهة، حيث تستغل المعالجة غير الصحيحة للعناصر الخاصة لتنفيذ أوامر غير مصرح بها. ويُنسب الفضل في اكتشاف هذه الثغرات إلى الباحث الأمني Estevam Arantes وباحث مستقل يُعرف باسم "0xSombra".

  • ثغرة CVE-2026-26129: أثرت بشكل مباشر على ميزة Business Chat في نظام Microsoft 365، مما سمح للمهاجمين غير المصرح لهم باستخراج معلومات حساسة عبر الشبكة بسبب سوء معالجة المدخلات.
  • ثغرة CVE-2026-26164: استهدفت نظام M365 Copilot عبر فشل في تحييد العناصر، مما قد يؤدي إلى حقن الأكواد البرمجية (Code Injection). تحمل هذه الثغرة تقييم خطورة يبلغ 7.5، ولا تتطلب أي تفاعل من المستخدم أو صلاحيات مرتفعة لاستغلالها.
  • ثغرة CVE-2026-33111: استهدفت تحديداً ميزة Copilot Chat المدمجة في متصفح Microsoft Edge، مما فتح الباب أمام عمليات حقن الأوامر مباشرة داخل بيئة المتصفح.

وأكدت شركة Microsoft أن أياً من هذه الثغرات لم يُستغل فعلياً في هجمات نشطة (In the wild) أو يُكشف عنها علناً قبل إصدار التصحيح الأمني السحابي.

كيفية تأمين بيانات الذكاء الاصطناعي المؤسسية

رغم تحييد التهديد المباشر على مستوى البنية التحتية السحابية، يسلط هذا الحادث الضوء على المخاطر الفريدة لأدوات الإنتاجية المدعومة بالذكاء الاصطناعي. ونظراً لقدرة Copilot على تجميع كميات هائلة من البيانات الداخلية، يوصي خبراء الأمن السيبراني باتخاذ التدابير الاستباقية التالية:

  • مراجعة أذونات البيانات: راجع بانتظام صلاحيات الوصول الممنوحة لأدوات الذكاء الاصطناعي، لضمان وصول Copilot فقط إلى البيانات الضرورية لمهام العمل اليومية.
  • تطبيق نموذج انعدام الثقة (Zero Trust): طبّق مبادئ البنية التحتية لانعدام الثقة على المستندات الداخلية ومستودعات SharePoint للحد من نطاق الضرر المحتمل أثناء أي هجوم لحقن الأوامر.

توسع مساحة الهجوم في عصر الذكاء الاصطناعي

خلق الدمج السريع لتقنيات الذكاء الاصطناعي التوليدي (Generative AI) في مسارات العمل المؤسسية ناقل هجوم جديد ومربح لمجرمي الإنترنت. صُممت المحيطات الأمنية التقليدية لإبقاء المهاجمين خارج الشبكة، لكن هجمات حقن الأوامر تتجاوز هذه الدفاعات عبر التلاعب بنظام الذكاء الاصطناعي الذي يمتلك بالفعل وصولاً مشروعاً للبيانات.

ومع استمرار شركة Microsoft في دمج Copilot بشكل أعمق داخل نظام Windows وحزمة Office، ستنتقل المسؤولية بشكل متزايد نحو الحوكمة الصارمة للبيانات الداخلية. فإذا كان مساعد الذكاء الاصطناعي قادراً على قراءة مستند سري للموارد البشرية، فإن المهاجم الذي يستغل ثغرة يوم صفر (Zero-day) سيكون قادراً على قراءته أيضاً. وحقيقة أن هذه الثغرات لم تتطلب أي تفاعل من المستخدم لتنفيذها تثبت أن أمان الذكاء الاصطناعي يجب أن يتجاوز مجرد تدريب الموظفين، ليركز بشكل مكثف على العزل الصارم للبيانات.

المصادر: videocardz.com ↗
هل أعجبك هذا المقال؟
Advertisement

عمليات البحث الشائعة