Breaking News
القائمة

ترامب يأمر بحظر أدوات Anthropic في الوكالات الفيدرالية بعد نزاع عسكري

ترامب يأمر بحظر أدوات Anthropic في الوكالات الفيدرالية بعد نزاع عسكري
Advertisement

محتويات المقال

أصدر الرئيس الأمريكي دونالد ترامب توجيهات رسمية لكافة الوكالات الفيدرالية بضرورة "الوقف الفوري" لاستخدام أدوات الذكاء الاصطناعي التابعة لشركة Anthropic، في خطوة تصعيدية تعكس الفجوة المتزايدة بين أخلاقيات وادي السيليكون والمتطلبات العسكرية. القرار الذي أُعلن يوم الجمعة يتضمن فترة سماح مدتها "ستة أشهر للتخلص التدريجي" من تقنيات الشركة، ويستهدف بشكل خاص نموذج "Claude Gov" المخصص الذي تعتمد عليه الوكالات حالياً في تحليل المعلومات الاستخباراتية والتخطيط العسكري.

يأتي هذا الحظر عقب أسابيع من التوتر بين شركة Anthropic ووزارة الدفاع (البنتاغون) حول شروط عقد بقيمة 200 مليون دولار تم توقيعه العام الماضي. وبينما سعت الوزارة لتعديل الاتفاقية للسماح بـ "كل الاستخدامات القانونية" للتقنية، رفضت الشركة إزالة القيود التي تمنع استخدام ذكائها الاصطناعي في تشغيل أسلحة ذاتية التشغيل فتاكة (Lethal Autonomous Weapons) أو إجراء عمليات المراقبة الجماعية للمواطنين. وفي منشور عبر منصة Truth Social، وصف الرئيس ترامب موقف الشركة بأنه "خطأ كارثي"، متهماً إياها بمحاولة "لي ذراع وزارة الحرب".

جوهر النزاع: السلامة مقابل المنفعة العسكرية

يتركز الخلاف حول الحدود التشغيلية لنماذج "Claude Gov"، المتاحة عبر منصات توفرها شركة Palantir وخدمات أمازون السحابية للعمليات المصنفة (السرية). وتُعد شركة Anthropic حالياً الشركة الوحيدة في مجال الذكاء الاصطناعي التي تعمل ضمن أنظمة مصنفة سرية. وقد التقى وزير الدفاع بيت هيغسيث (Pete Hegseth) مع الرئيس التنفيذي لشركة Anthropic، داريو أمودي، في وقت سابق من هذا الأسبوع، موجهاً إنذاراً نهائياً للشركة للموافقة على شروط "الاستخدام القانوني الكامل" بحلول يوم الجمعة. ورغم إشادة المسؤولين بالمنتج التقني، إلا أن إدارة ترامب أصرت على أن الشركات التقنية المدنية لا ينبغي أن تملي قواعد الاشتباك العسكري.

ووفقاً لمصادر مطلعة، فإن البنتاغون لا يستخدم الذكاء الاصطناعي حالياً للتحكم في الأسلحة الفتاكة أو المراقبة الجماعية، وأكد أنه لا توجد خطط فورية لذلك. وأشار مايكل هوروويتز، المسؤول السابق في البنتاغون وخبير الذكاء الاصطناعي العسكري، إلى أن النزاع يبدو متعلقاً بـ "حالات استخدام نظرية" وليست احتياجات تشغيلية فورية، واصفاً الأمر بأنه نزاع غير ضروري حول سيناريوهات غير مطروحة حالياً على الطاولة.

ردود فعل الصناعة والتأثير التشغيلي

أثار النزاع ردود فعل واسعة في قطاع التكنولوجيا، حيث وقع مئات الموظفين من شركتي Google و OpenAI على رسالة مفتوحة تدعم موقف شركة Anthropic، منتقدين شركاتهم الخاصة لإزالتها قيوداً مماثلة على الاستخدام العسكري. وفي مذكرة داخلية، صرح سام ألتمان، الرئيس التنفيذي لشركة OpenAI، بأن شركته تعتبر أيضاً المراقبة الجماعية والأسلحة ذاتية التشغيل بالكامل "خطاً أحمر"، رغم سعي الشركة للتوصل إلى حل وسط لمواصلة أعمالها الدفاعية.

تفاقم التوتر بعد تقارير من موقع Axios أفادت بأن قادة عسكريين أمريكيين استخدموا نموذج Claude للمساعدة في التخطيط لعملية تهدف للقبض على الرئيس الفنزويلي نيكولاس مادورو. وبعد العملية، نقل موظف في شركة Palantir مخاوف من أحد موظفي Anthropic بشأن كيفية استخدام النماذج، رغم أن الشركة نفت رسمياً أي تدخل في استخدامات البنتاغون لتقنياتها.

ملخص العقد والجدول الزمني

التفاصيل الوصف
قيمة العقد 200 مليون دولار (تم توقيعه العام الماضي)
النموذج المتأثر نموذج Claude Gov (نسخة مخصصة بقيود أقل)
منصات التشغيل أنظمة Palantir وسحابة Amazon (للعمليات السرية)
الجدول الزمني للحظر أمر فوري مع فترة تخلص تدريجي مدتها 6 أشهر

الأسئلة الشائعة

لماذا تم حظر شركة Anthropic من التعامل الحكومي؟
أصدرت إدارة ترامب الحظر بعد رفض الشركة التخلي عن قيود تعاقدية تمنع استخدام ذكائها الاصطناعي في تطوير أسلحة ذاتية التشغيل فتاكة أو في عمليات المراقبة الجماعية.

ما هو نموذج Claude Gov؟
هو نسخة متخصصة من نماذج الذكاء الاصطناعي طورتها شركة Anthropic للاستخدام الحكومي، ويُستخدم في مهام مثل كتابة التقارير، وتلخيص المستندات، والتحليل الاستخباراتي، والتخطيط العسكري.

رأيي التقني

يُمثل هذا الحظر نقطة تحول حاسمة في حركة "سلامة الذكاء الاصطناعي" (AI Safety). تأسست شركة Anthropic خصيصاً لإعطاء الأولوية للسلامة على حساب القدرات غير المقيدة، وهذا الصدام يثبت أن تلك المبادئ ليست مجرد شعارات تسويقية بل خطوط حمراء تشغيلية. ومع ذلك، فإن تحرك إدارة ترامب يرسل إشارة واضحة لبقية الصناعة: للفوز بعقود الدفاع الأمريكية المربحة، يجب على شركات التكنولوجيا أن تكون مستعدة للتنازل عن السيطرة الأخلاقية على أدواتها لصالح الجيش. هذا الموقف قد يفتح الباب واسعاً أمام منافسين مثل شركة xAI أو Palantir لملء الفراغ، مما قد يسرع من نشر الذكاء الاصطناعي في القطاعات الدفاعية دون الضوابط التي حاربت Anthropic للحفاظ عليها.

المصادر: arstechnica.com ↗
Advertisement
هل أعجبك هذا المقال؟

بحث في الموقع