قال مسئول كبير إن هيئة حماية البيانات الإيطالية تخطط لمراجعة منصات الذكاء الاصطناعي الأخرى وتوظيف خبراء في الذكاء الاصطناعي، مع تكثيف التدقيق في التكنولوجيا القوية بعد حظر ChatGPT مؤقتًا في مارس.
ويُعد Garante من بين أكثر الهيئات استباقية من بين 31 هيئة وطنية لحماية البيانات تشرف على نظام خصوصية البيانات في أوروبا المعروف باسم اللائحة العامة لحماية البيانات (GDPR).
كانت الوكالة أول من حظر شركة ريبليكا روبوت الدردشة للذكاء الاصطناعي، وفرضت غرامات على صانع برامج التعرف على الوجه Clearview AI، وقيدت TikTok في أوروبا.
في مارس، حظرت مؤقتًا برنامج ChatGPT التابع لشركة OpenAI المدعوم من Microsoft، وأطلقت تحقيقًا بشأن الانتهاك المشتبه به لقواعد الخصوصية في التطبيق.
وقال Agostino عضو مجلس إدارة Garante، نخطط لبدء مراجعة واسعة النطاق لتطبيقات الذكاء الاصطناعي التوليفية والتعلم الآلي المتاحة عبر الإنترنت لأننا نريد أن نفهم ما إذا كانت هذه الأدوات الجديدة تعالج المشكلات المرتبطة بحماية البيانات والامتثال لقوانين الخصوصية - وسنبدأ تحقيقات جديدة .
دفع نجاح ChatGPT شركات التكنولوجيا الثقيلة من Alphabet إلى Meta للترويج لإصداراتها الخاصة، ويناقش المشرعون والحكومات في جميع أنحاء العالم قوانين جديدة قد يستغرق إنفاذها سنوات.
وأضاف Agostino : نحن نبحث عن ثلاثة مستشارين للذكاء الاصطناعي لأننا ندرك أن أدوات الذكاء الاصطناعي تتطور بسرعة كبيرة ونحتاج إلى خبراء يتمتعون بخلفية تقنية لمساعدتنا في نشاط حماية البيانات لدينا.
هذه الخطوة هي أحدث مثال على كيفية اعتماد بعض المنظمين على القوانين الحالية للسيطرة على التكنولوجيا التي يمكن أن تقلب الطريقة التي تعمل بها المجتمعات والشركات.
في حملتها الصارمة على ChatGPT ، استخدمت Garante أحكام القانون العام لحماية البيانات (GDPR)، لا سيما تلك التي تحمي الأطفال دون السن القانونية وتمنح الأفراد الحق في طلب الإلغاء والاعتراض على استخدام بياناتهم الشخصية.
بعد أن اتخذ Garante خطوات، قام صانع ChatGPT OpenAI بإجراء تغييرات على روبوت الدردشة الخاص به لاستعادة الامتثال.
قال Agostino : غالبًا ما يكون أعضاء مجلس Garante على دراية بالانتهاكات المحتملة لقوانين الخصوصية لأننا ببساطة نستكشف الأدوات والتطبيقات الرقمية بمجرد توفرها.