Breaking News
القائمة

مسؤولو Salesforce يحذرون: تقنية Agentic AI تحتاج إلى بنية ثقة للبقاء

مسؤولو Salesforce يحذرون: تقنية Agentic AI تحتاج إلى بنية ثقة للبقاء
Advertisement

محتويات المقال

يمثل تطوير بنية ثقة لتقنية Agentic AI العقبة الأكثر أهمية أمام تبني الذكاء الاصطناعي في المؤسسات، وفقاً لرؤى جديدة من مسؤولين تنفيذيين في شركة Salesforce. مع تطور وكلاء الذكاء الاصطناعي من مجرد مساعدين للمحادثة إلى مفاوضين مستقلين، يهدد غياب إطار عمل موحد للتجارة بين الوكلاء بوقف تبني هذه التقنيات. يتطلب هذا التحول من الآلات ممارسة أحكام سياقية بدلاً من مجرد اتباع قواعد حتمية.

في عام 1832، حلت غرفة مقاصة المصرفيين في لندن (London Bankers’ Clearing House) مشكلة هيكلية مشابهة من خلال تأسيس شبكة ثقة تعتمد على الهوية المسجلة والعواقب المشتركة. اليوم، يواجه وكلاء الذكاء الاصطناعي المعضلة ذاتها عند التفاوض عبر الحدود المؤسسية دون إشراف بشري. يشير ساباستيان نايلز (Sabastian Niles)، الرئيس والمدير القانوني في شركة Salesforce، إلى أن الوكلاء سيرثون المؤسسات البشرية وسيتفاوضون داخل أنظمة قانونية لم تُصمم من أجلهم.

نماذج الذكاء الاصطناعي الحالية غير مجهزة أساساً للتفاوض التجاري الاستراتيجي. يوضح سيلفيو سافاريسي (Silvio Savarese)، نائب الرئيس التنفيذي وكبير العلماء في قسم Salesforce AI Research، أن نماذج اليوم مُدربة لتكون متعاونة بدلاً من التمسك بموقف حازم. عندما يتفاعل وكيلان من هذا النوع، فإنهما يقعان غالباً في "سلوك الصدى" (Echoing Behavior)، وهي حلقة مفرغة وخطيرة من الموافقة المفرطة. يمكن أن يؤدي هذا العيب إلى تعرض مالي شديد في سيناريوهات عالية المخاطر مثل نزاعات فواتير الرعاية الصحية أو عقود سلاسل التوريد.

علاوة على ذلك، يعمل الذكاء الاصطناعي الحديث بناءً على توزيعات احتمالية بدلاً من قواعد صارمة، مما يخلق ما يسميه باحثو شركة Salesforce "مشكلة التملص" (Wriggling Problem). نظراً لأن المدخلات المتطابقة يمكن أن تسفر عن نتائج تفاوض مختلفة، فإن أطر التدقيق التقليدية تصبح عفا عليها الزمن. لسد هذه الفجوة، يجب على الصناعة بناء بنية ثقة شاملة قبل أن تصبح المعاملات المستقلة ملزمة قانونياً.

الركائز الأربع لثقة الوكلاء المستقلين

بناءً على اختبارات الضغط المكثفة في قسم Salesforce AI Research، حدد الخبراء أربعة عناصر أساسية مطلوبة لحوكمة التفاعلات بين وكيل وآخر (A2A). تمزج هذه الركائز بين الدقة العلمية والخبرة القانونية لضمان بقاء الحكم البشري سيادياً.

  • الهوية المسجلة والسمعة: لا يمكن للوكلاء العمل بشكل مجهول. بالاعتماد على "بطاقات الوكلاء" (Agent Cards) - وهي بيانات وصفية موحدة تم اعتمادها في مواصفات Google A2A - يجب على الوكلاء بناء سمعة يمكن التحقق منها بمرور الوقت لتحقيق الذكاء العام للمؤسسات (Enterprise General Intelligence).
  • الحدود بدلاً من النصوص البرمجية: يتطلب الوكلاء الاحتماليون حرية تشغيلية واسعة ضمن مبادئ مهنية محددة، بدلاً من أشجار القرار الصارمة التي تفشل في بيئات الأعمال المعقدة.
  • المساءلة المنظمة: يجب على المؤسسات إنشاء مسارات تدقيق واضحة تسجل كيفية اتخاذ القرارات وتقييمها. سيتطلب ذلك أدواراً مؤسسية جديدة، مثل مسؤولي عمليات الذكاء الاصطناعي ومديري الوكلاء.
  • التصعيد المعاير: يجب أن يمتلك وكلاء الذكاء الاصطناعي القدرة على إدراك حدودهم. يجب أن تؤدي القرارات عالية المخاطر التي تنطوي على الامتثال التنظيمي أو الالتزامات المالية الكبرى إلى تفعيل بروتوكولات المراجعة البشرية تلقائياً.

رأيي التقني

إن الدفع نحو بناء بنية ثقة لتقنية Agentic AI، وتحديداً توحيد معايير بطاقات الوكلاء (Agent Cards) كما يظهر في مواصفات Google A2A، يشير إلى تحول هائل في برمجيات المؤسسات. خلال العامين المقبلين، من المرجح أن تتنافس شركات التقنية في قطاع الأعمال (B2B) ليس على الذكاء الخام للنماذج، بل على السمعة التي يمكن التحقق منها والامتثال القانوني لوكلائها المستقلين. تثبت "مشكلة التملص" التي أبرزتها شركة Salesforce أن التدقيق الحتمي قد انتهى. ينتمي مستقبل التجارة الرقمية إلى غرف مقاصة ديناميكية للذكاء الاصطناعي تعتمد على السمعة ويمكنها إثبات موثوقيتها رياضياً.

الأسئلة الشائعة

ما هي "مشكلة التملص" (Wriggling Problem) في الذكاء الاصطناعي؟
تشير إلى التباين المتأصل في مخرجات الذكاء الاصطناعي، حيث يمكن للمدخلات المتطابقة أن تنتج نتائج تفاوض مختلفة، مما يجعل تدقيق البرمجيات التقليدية أمراً مستحيلاً.

ما هي بطاقات الوكلاء (Agent Cards)؟
هي ملفات تعريف بيانات وصفية موحدة تنقل قدرات وكيل الذكاء الاصطناعي، وموقف الامتثال الخاص به، وسلطته القانونية لتقديم التزامات نيابة عن الشركة.

ما هو "سلوك الصدى" (Echoing Behavior) في تفاوض الذكاء الاصطناعي؟
هو حلقة مفرغة خطيرة حيث يقوم وكيلان من وكلاء الذكاء الاصطناعي، كلاهما مدرب على أن يكون متعاوناً للغاية، بالاتفاق المستمر مع بعضهما البعض، مما قد يؤدي إلى تنازلات مالية غير ضرورية.

المصادر: fortune.com ↗
Advertisement
هل أعجبك هذا المقال؟

عمليات البحث الشائعة