حذفت الحكومة الأمريكية بهدوء إعلاناً رسمياً رئيسياً يفصل اتفاقيات CAISI لفحص الذكاء الاصطناعي الجديدة، والتي تهدف إلى تقييم النماذج غير المصدرة من شركات Google وxAI وMicrosoft. أثار الاختفاء المفاجئ للصفحة، التي نشرها مركز معايير وابتكار الذكاء الاصطناعي (CAISI) التابع لوزارة التجارة في 5 مايو 2026، تساؤلات جدية حول استقرار الرقابة الفيدرالية على تقنيات الذكاء الاصطناعي.
منحت الاتفاقيات، التي تم حذف تفاصيلها الآن، المنظمين الفيدراليين صلاحية الوصول المسبق لتقييم قدرات الذكاء الاصطناعي المتقدمة قبل طرحها للجمهور. صُممت هذه المبادرة للبناء على شراكات اختبار الأمان المماثلة التي أُبرمت مع شركتي Anthropic وOpenAI في عام 2024، بهدف تعزيز أمن الذكاء الاصطناعي (AI Security) وتبادل المعلومات.
اليوم، أعلن مركز معايير وابتكار الذكاء الاصطناعي (CAISI) التابع للمعهد الوطني للمعايير والتقنية بوزارة التجارة عن اتفاقيات جديدة مع Google DeepMind وMicrosoft وxAI. من خلال هذه التعاونات الصناعية الموسعة، سيجري المركز تقييمات ما قبل النشر وأبحاثاً موجهة لتقييم قدرات الذكاء الاصطناعي الرائدة بشكل أفضل ودفع حالة أمن الذكاء الاصطناعي. تبني هذه الاتفاقيات على شراكات أُعلن عنها سابقاً، والتي أُعيد التفاوض بشأنها لتعكس توجيهات المركز من وزير التجارة وخطة عمل الذكاء الاصطناعي الأمريكية.
- الإعلان المحذوف لمركز CAISI
وكما لاحظت وكالة Reuters لأول مرة، أظهر الرابط الأصلي في البداية رسالة خطأ تفيد بعدم العثور على الصفحة، قبل أن يتم تعديله ليعيد توجيه الزوار إلى الصفحة الرئيسية لمركز CAISI. وحتى الآن، لم يقدم البيت الأبيض أو وزارة التجارة أي تفسير رسمي لهذا التراجع، في حين لا تزال الروابط المؤرشفة تؤكد أن الهدف كان ضمان فهم واضح داخل الحكومة لحالة المنافسة الدولية في مجال الذكاء الاصطناعي.
فجوة الشفافية في اختبارات الذكاء الاصطناعي
يُبرز الحذف الصامت لهذا الإعلان نقطة احتكاك متزايدة بين المنظمين الفيدراليين وشركات وادي السيليكون. صاغ النص المؤرشف هذه الاتفاقيات بوضوح حول المنافسة الدولية وتوجيهات الأمن القومي. يشير سحب الصفحة إما إلى نشر مبكر قبل جفاف حبر العقود القانونية النهائية، أو إلى معارضة مفاجئة من عمالقة التقنية المعنيين بشأن نطاق وصول الحكومة إلى نماذجهم الخاصة.
إذا كان مركز CAISI يعتزم فرض تقييمات صارمة قبل النشر على شركات مثل Google وxAI، فإن الحفاظ على الشفافية العامة سيكون بنفس أهمية الاختبارات ذاتها. إن إدارة اتفاقيات الفحص هذه في الخفاء يهدد بتقويض ثقة الجمهور في كيفية تعامل الحكومة مع أقوى أنظمة الذكاء الاصطناعي غير المصدرة في العالم.