Breaking News
القائمة

فضيحة تقنية في كولومبيا: المحكمة العليا ترفض طعناً بسبب الذكاء الاصطناعي وأدوات الكشف تصنف حكمها بأنه "آلي"

فضيحة تقنية في كولومبيا: المحكمة العليا ترفض طعناً بسبب الذكاء الاصطناعي وأدوات الكشف تصنف حكمها بأنه "آلي"
Advertisement

محتويات المقال

أثارت المحكمة العليا في كولومبيا جدلاً قانونياً واسعاً بعد رفضها طعن النقض (Cassation Appeal) بحجة أنه صيغ بواسطة الذكاء الاصطناعي، لتواجه موقفاً محرجاً عندما صنفت البرمجيات نفسها نص الحكم الصادر عن المحكمة بأنه "مكتوب آلياً". تسلط هذه الحادثة الضوء على انعدام الموثوقية في أدوات كشف النصوص المولدة بالذكاء الاصطناعي داخل البيئات المهنية الحساسة.

بدأت الأزمة عندما رفضت المحكمة مذكرة قدمها أحد المحامين، مستندة إلى "شكوك مبررة" بأن النص لم يكتبه محترف قانوني بشري. ولتبرير هذا الرفض، استخدمت المحكمة أداة Winston AI للتحليل. ووفقاً لبيان المحكمة، أشارت النتائج إلى أن وثيقة المحامي تحتوي على "محتوى بشري بنسبة 7% فقط"، مما دفع القضاة لاستنتاج أنها أُنتجت باستخدام الذكاء الاصطناعي التوليدي وبالتالي فهي غير مقبولة.

ازدواجية المعايير والرد التقني

واجه الحكم تدقيقاً فورياً من المجتمع القانوني. قام المحامي إيمانويل أليسيو فيلاسكيز باختبار نص قرار المحكمة نفسه، المعروف باسم Auto AP760/2026، عبر نفس برنامج Winston AI الذي استند إليه القضاة. وكشف فيلاسكيز عبر منصة X أن الأداة صنفت حكم المحكمة بأنه يحتوي على "نص مولد بالذكاء الاصطناعي بنسبة 93%".

جادل فيلاسكيز بأنه إذا كان الحكم القضائي الذي يدين استخدام الذكاء الاصطناعي يحصل على هذه النسبة العالية، فإن "الهشاشة المنهجية" لاستخدام هذه الأدوات كدليل قانوني تصبح واضحة للعيان. انتشر هذا الكشف بشكل واسع، مما دفع محامين آخرين لاختبار موثوقية هذه الكواشف ضد وثائق تاريخية.

قام محامي الدفاع الجنائي أندريس ف. أرانغو بتقديم ملف محكمة يعود لعام 2019 أي قبل سنوات من انتشار النماذج اللغوية الكبيرة (LLMs) الحديثة ومع ذلك ادعى البرنامج أن النص مولد بالذكاء الاصطناعي بنسبة 95%. وبالمثل، اختبر نيكولاس بويلفاس أطروحته الجامعية لعام 2020، لتظهر النتيجة أنها "ذكاء اصطناعي بنسبة 100%". تشير هذه الإيجابيات الكاذبة (False Positives) إلى أن الأدوات قد تكون مبرمجة للاشتباه في النثر القانوني الرسمي، الذي يتسم بالهيكلية والتكرار، بدلاً من كشف المحتوى الآلي الفعلي.

لماذا تفشل الكواشف مع النصوص القانونية؟

يعود الفشل التقني هنا إلى آلية عمل كواشف الذكاء الاصطناعي. تحلل هذه الأدوات الأنماط الإحصائية مثل طول الجملة، وإمكانية التنبؤ بالمفردات، وما يسمى "الانفجارية" (Burstiness) أي التباين في بنية الجمل. تفتقر الكتابة القانونية والأكاديمية غالباً إلى هذه الانفجارية لأنها تعطي الأولوية للدقة والهيكلية الرسمية والمصطلحات المحددة، وهي سمات تتداخل بشكل كبير مع كيفية تدريب نماذج الذكاء الاصطناعي على توليد النصوص.

أظهرت اختبارات مستقلة على حكم المحكمة نتائج متضاربة تعتمد على حجم العينة. عندما قامت أداة GPTZero بمسح الكلمات الافتتاحية فقط لنص المحكمة، أعطت نتيجة "ذكاء اصطناعي بنسبة 100%". ولكن عند معالجة نسخة أطول تتضمن قسم الخلفية الواقعية، عكست النتيجة تماماً لتصبح "بشرية بنسبة 100%". يثبت هذا التقلب أن هذه الأدوات غير موثوقة حالياً لتكون الأساس الوحيد لحرمان الأفراد من الوصول إلى العدالة.

أسئلة شائعة

ما هي الأداة التي استخدمتها المحكمة الكولومبية؟
استشهدت المحكمة صراحة بأداة Winston AI في حكمها لتبرير رفض طعن المحامي.

لماذا يتم تصنيف الوثائق القانونية البشرية على أنها ذكاء اصطناعي؟
تستخدم الوثائق القانونية لغة رسمية ومنظمة للغاية ومتكررة. غالباً ما تخطئ كواشف الذكاء الاصطناعي في تفسير هذا النمط المنخفض التباين وتعتبره نصاً مولداً آلياً.

رأيي التقني

تعتبر هذه الحادثة جرس إنذار حاسم بشأن دمج التكنولوجيا القانونية (Legal Tech). حقيقة أن وثيقة من عام 2019 كُتبت قبل طفرة ChatGPT سجلت نسبة 95% على كاشف الذكاء الاصطناعي تثبت أن هذه الأدوات معيبة جوهرياً عند تطبيقها على الكتابة التقنية أو الرسمية. الاعتماد على برمجيات احتمالية مثل Winston AI أو GPTZero لاتخاذ قرارات قضائية ثنائية (قبول أو رفض) يحرم الأفراد من الإجراءات القانونية الواجبة بناءً على خوارزمية "صندوق أسود" لا تستطيع التمييز بين أسلوب الكتابة الروبوتي والروبوت الفعلي. إلى أن تتمكن هذه الأدوات من إثبات معدلات دقتها بشفافية على نصوص المجال المتخصص، يجب التعامل معها كأدوات استشارية في أحسن الأحوال، وليست أدلة إثبات.

المصادر: decrypt.co ↗
Advertisement
هل أعجبك هذا المقال؟

بحث في الموقع