تنص شروط استخدام Microsoft Copilot المحدثة صراحةً على أن مساعد الذكاء الاصطناعي مخصص "لأغراض الترفيه فقط"، مما يخلق تناقضاً صارخاً للمستخدمين الذين يعتمدون عليه في إنتاجيتهم اليومية. وعلى الرغم من قضاء سنوات في دمج أداة Copilot بقوة داخل نظام Windows ومتصفح Edge وتطبيقات Office الأساسية، تحذر شركة Microsoft الآن المستخدمين من الاعتماد على الأداة للحصول على نصائح مهمة. وقد أثار هذا التحول المفاجئ في الرسائل ارتباكاً واسع النطاق بين المحترفين الذين يستخدمون الذكاء الاصطناعي لتلخيص رسائل البريد الإلكتروني، وصياغة التقارير، وتحليل البيانات.
وكما أشار التقرير الأول الذي نشره موقع Tom's Hardware، فإن شروط استخدام Microsoft Copilot المعدلة حديثاً تعمل بمثابة شبكة أمان واسعة ضد المسؤولية القانونية المحتملة. وتحذر الشروط صراحةً من أن أداة Copilot يمكن أن ترتكب أخطاء، وقد لا تعمل كما هو مقصود، ويجب استخدامها بالكامل على مسؤولية المستخدم الخاصة. ويهدف هذا التكتيك القانوني إلى حماية الشركة من الدعاوى القضائية الناجمة عن هلوسة الذكاء الاصطناعي (AI Hallucinations)، خاصة عندما يبحث المستخدمون عن إرشادات مالية أو قانونية أو طبية.
وينبع الإحباط الأساسي من الطبيعة الحتمية للمساعد الذكي الذي لا يمكن تجنبه. فعلى عكس أدوات الذكاء الاصطناعي المستقلة التي يختار المستخدمون بنشاط تثبيتها وتجربتها، تم دمج أداة Copilot مباشرة في تطبيقات Word وExcel وOutlook وTeams. وقد أشار المستخدمون عبر المنصات الاجتماعية، بما في ذلك منصة X وموقع Reddit، إلى التناقض المتمثل في الترويج لأداة إنتاجية على مستوى المؤسسات بينما يتم تصنيفها قانونياً على أنها مجرد وسيلة ترفيهية عابرة.
تأثير ذلك على سير العمل اليومي في المؤسسات
بالنسبة للمحترفين الذين يستخدمون بيئة عمل شركة Microsoft، يغير إخلاء المسؤولية هذا بشكل جذري كيفية التعامل مع مخرجات الذكاء الاصطناعي في مكان العمل. ونظراً لأن النظام يُصنف قانونياً كأداة ترفيهية، يجب على الموظفين التعامل مع كل ملخص يتم إنشاؤه، وكل بريد إلكتروني تتم صياغته، وكل تحليل للبيانات على أنه مسودة غير مؤكدة. وتؤثر هذه الرسائل المزدوجة بشكل مباشر على العديد من مسارات العمل الأساسية:
- إنشاء المستندات: يجب تدقيق المسودات التي تم إنشاؤها في تطبيق Word بشدة بحثاً عن أي عدم دقة في الحقائق أو هلوسات برمجية.
- تحليل البيانات: ينبغي لمستخدمي برنامج Excel تجنب اتخاذ قرارات مالية عالية المخاطر بناءً على تفسيرات أداة Copilot وحدها.
- الاتصالات: قد تفتقر ملخصات البريد الإلكتروني في تطبيق Outlook إلى السياق الحاسم، مما يتطلب تحققاً يدوياً للمراسلات المهمة.
الواقع الاستراتيجي وراء تصنيف "الترفيه"
يكشف هذا التحول القانوني الجذري عن التوتر المتزايد بين تسويق الذكاء الاصطناعي كأداة إنتاجية ثورية وبين الحقائق القاسية للمسؤولية المؤسسية. ومن خلال تصنيف أداة Copilot كميزة ترفيهية، تحاول شركة Microsoft تحقيق هدفين في آن واحد: الحفاظ على مكانتها المهيمنة في سباق الذكاء الاصطناعي، مع التهرب تماماً من المسؤولية التي تأتي مع الاعتماد عليه على مستوى المؤسسات. إنها خطوة مدروسة للاستمتاع بالجانب الإيجابي لتبني الذكاء الاصطناعي دون تحمل الجانب السلبي القانوني.
ويبدو رد الفعل العنيف الذي أبرزه المعلقون التقنيون والمستخدمون مبرراً تماماً عند النظر إلى موضع المنتج. فإذا كانت الأداة مخصصة حقاً للتسلية العابرة، فلا ينبغي أن تتصدر واجهة حزم برامج المؤسسات حيث ينفذ المستخدمون أعمالاً جادة وعالية المخاطر. والمضي قدماً، من المرجح أن تواجه شركة Microsoft ضغوطاً متزايدة إما لتحسين موثوقية نماذجها لتتناسب مع ادعاءاتها المتعلقة بالإنتاجية، أو تزويد المستخدمين بطريقة أبسط بكثير لتعطيل المساعد الذكي بالكامل.