محتويات المقال
يمثل الأمر القضائي ضد حظر البنتاغون لشركة Anthropic انتصاراً قانونياً كبيراً لشركة الذكاء الاصطناعي، حيث أوقف مؤقتاً محاولة الحكومة إدراج خدماتها في القائمة السوداء. وحكمت قاضية فيدرالية بأن معاقبة مطور نموذج Claude بسبب موقفه العلني من الاستخدام العسكري للذكاء الاصطناعي يعد انتقاماً غير قانوني.
يعد هذا التطور حاسماً للمقاولين الحكوميين، ومطوري الذكاء الاصطناعي، وعملاء الشركات الذين يتعاملون مع قواعد المشتريات الفيدرالية. ويوفر القرار إغاثة قانونية فورية للشركات التي تخشى الإنهاء المفاجئ لعقودها الفيدرالية لمجرد استخدام تقنية شركة Anthropic في تطبيقات غير عسكرية.
حكم المحكمة وادعاءات الانتقام
منحت القاضية Rita F. Lin من المنطقة الشمالية في ولاية كاليفورنيا الأمر القضائي الأولي، والذي سيدخل حيز التنفيذ خلال سبعة أيام. وذكرت القاضية في أمرها أن وزارة الحرب صنفت شركة Anthropic كخطر على سلسلة التوريد بسبب "أسلوبها العدائي عبر الصحافة". وأكدت أن معاقبة الشركة لتسليطها الضوء العام على موقف التعاقد الحكومي يعد مثالاً كلاسيكياً على الانتقام غير القانوني بموجب التعديل الأول للدستور.
عقب صدور الحكم، أعربت المتحدثة باسم شركة Anthropic، السيدة Danielle Cohen، عن امتنانها للتحرك السريع للمحكمة. وأشارت إلى أن الدعوى القضائية كانت ضرورية لحماية الشركة وشركائها وعملائها. وجددت التزام شركة Anthropic بالعمل بشكل بناء مع الحكومة لضمان نشر ذكاء اصطناعي آمن وموثوق.
الصراع الأساسي حول الذكاء الاصطناعي العسكري
نشأ النزاع من مذكرة أصدرها وزير الدفاع Pete Hegseth في 9 يناير، والتي فرضت إدراج لغة "أي استخدام قانوني" في عقود شراء خدمات الذكاء الاصطناعي خلال 180 يوماً. وأثر هذا التوجيه على الاتفاقيات الحالية مع كبرى شركات الذكاء الاصطناعي، بما في ذلك شركة Anthropic، وشركة OpenAI، وشركة xAI، وشركة Google. وقاومت شركة Anthropic هذا القرار، مستندة إلى "خطين أحمرين" صارمين لنماذج الذكاء الاصطناعي الخاصة بها: المراقبة الجماعية المحلية، والأسلحة المستقلة الفتاكة.
رداً على رفض شركة Anthropic، وصفت الحكومة الشركة بأنها "خطر على سلسلة التوريد"، وهو تصنيف شديد يُخصص عادةً للخصوم الأجانب. وخلال الجلسة، شككت القاضية في مبررات وزارة الحرب، وتحديداً منشور منصة X الذي نشره الوزير Hegseth والذي أمر بوقف فوري لجميع الأنشطة التجارية مع شركة Anthropic من قبل المقاولين العسكريين. وضغطت القاضية على ممثلي الحكومة حول ما إذا كان سيتم إنهاء عقود المقاولين الذين يقدمون خدمات غير ذات صلة، مثل ورق التواليت، لاستخدامهم تقنيات شركة Anthropic، وهو ما أقرت الحكومة بأنه لن يحدث على الأرجح، رغم أن الإجابات المتعلقة بمقاولي تكنولوجيا المعلومات ظلت غامضة.
الأمن القومي وادعاءات التخريب
جادلت وزارة الدفاع سابقاً بأن شركة Anthropic قد تحاول تعطيل تقنيتها أو تغيير سلوك نموذج Claude أثناء العمليات القتالية المستمرة إذا شعرت أن خطوطها الحمراء قد تم تجاوزها. واعتبر البنتاغون هذا الموقف النظري خطراً غير مقبول على الأمن القومي.
وتحدت القاضية سيناريو التخريب النظري هذا أثناء الإجراءات. وطلبت صراحة أدلة ملموسة تظهر أن شركة Anthropic احتفظت بوصول مستمر أو سيطرة على نموذج Claude بعد تسليمه للحكومة، وهو أمر ضروري لتنفيذ مثل هذه الأعمال التخريبية.
رأيي التقني
يمثل قرار المحكمة بمنع الحظر مؤقتاً اختبار ضغط حاسم لكيفية شراء الحكومة الأمريكية لنماذج الذكاء الاصطناعي الأساسية. ومن خلال التراجع عن تصنيف "خطر سلسلة التوريد"، تضع شركة Anthropic سابقة قانونية تمنع الوكالات الفيدرالية من استخدام تصنيفات الأمن القومي كسلاح لإجبار شركات التكنولوجيا المحلية على الامتثال. إن حقيقة تواصل العشرات من شركاء المؤسسات مع شركة Anthropic في حالة من الذعر تسلط الضوء على التأثير المروع الذي يمكن أن تحدثه مثل هذه التوجيهات الحكومية على سوق الذكاء الاصطناعي الأوسع.
للمضي قدماً، من المرجح أن تجبر هذه القضية وزارة الحرب على وضع مبادئ توجيهية أكثر شفافية وتوحيداً لمشتريات الذكاء الاصطناعي بدلاً من الاعتماد على إعلانات وسائل التواصل الاجتماعي المرتجلة. وإذا جاء الحكم النهائي لصالح شركة Anthropic، فسوف يمكّن ذلك مطوري الذكاء الاصطناعي الآخرين مثل شركة OpenAI وشركة Google من فرض حدودهم الأخلاقية دون التهديد الفوري بالإدراج في القائمة السوداء الفيدرالية. وفي النهاية، سيحتاج الجيش إلى الموازنة بين طلبه للاستخدام غير المقيد للذكاء الاصطناعي وحقيقة أن كبار مزودي الذكاء الاصطناعي التجاريين غير مستعدين بشكل متزايد للتنازل عن بروتوكولات السلامة الأساسية الخاصة بهم.