يحذر تقرير جديد صادر عن صندوق (PIRG) لأبحاث المصلحة العامة في الولايات المتحدة من أن الألعاب المدعومة بتقنية الذكاء الاصطناعي تعرض الأطفال لأنظمة روبوتات دردشة صُممت في الأصل للبالغين. وتستخدم هذه الدمى التفاعلية والروبوتات والأجهزة التعليمية نماذج لغوية كبيرة قد تولد محتوى غير لائق أو مضللاً أو غير متوقع للمستخدمين الصغار. ويسلط الاستطلاع الضوء على اتجاه متزايد حيث تدمج الشركات المصنعة الذكاء الاصطناعي الحواري للأغراض العامة في منتجات يتم تسويقها مباشرة للأطفال.
يعد هذا التطور حاسماً للآباء والمدافعين عن الخصوصية ومنظمي التكنولوجيا الذين يحتاجون إلى فهم المخاطر الخفية لإدخال الذكاء التوليدي إلى غرف ألعاب الأطفال. ومن خلال إدراك هذه الثغرات، يمكن للمستهلكين اتخاذ قرارات أكثر استنارة بشأن الأجهزة المتصلة التي يجلبونها إلى منازلهم، مما يضمن عدم تعريض أطفالهم عن غير قصد لجمع بيانات غير خاضع للرقابة أو مخرجات حوارية ذات طابع للبالغين.
مع اندماج الذكاء الاصطناعي التوليدي بسرعة في الإلكترونيات الاستهلاكية، غالباً ما تتخلف الضمانات المدمجة في هذه المنتجات عن التكنولوجيا نفسها. ويسلط تقرير منظمة (PIRG) الضوء على أن العديد من هذه الألعاب تعتمد بشكل كبير على أنظمة ذكاء اصطناعي سحابية. وتعني هذه البنية أن التفاعلات الصوتية للأطفال تُنقل غالباً إلى خوادم خارجية حيث تتم معالجة البيانات لتوليد استجابات بلغة طبيعية، مما يثير مخاوف فورية بشأن تخزين البيانات واستخدامها.
مخاطر الخصوصية وإخلاء المسؤولية المخفي
وجد الاستطلاع أن بعض الألعاب تجمع تسجيلات صوتية ومطالبات المستخدمين ومعلومات شخصية أخرى دون توفير حماية قوية ومخصصة لخصوصية الأطفال. وإذا لم يتم تصميم هذه الأنظمة بعناية، فقد يتم إساءة استخدام البيانات المجمعة أو تخزينها دون ضمانات واضحة. علاوة على ذلك، اكتشف الباحثون أن الشركات المصنعة تقوم في كثير من الأحيان بإخفاء إخلاء المسؤولية في أعماق شروط الخدمة أو وثائق المنتج الخاصة بها.
وغالباً ما تنص إخلاءات المسؤولية المخفية هذه على أن استجابات الذكاء الاصطناعي قد لا تكون دقيقة أو مناسبة دائماً. ومن خلال القيام بذلك، تنقل الشركات فعلياً عبء السلامة والمراقبة إلى الآباء، على الرغم من تسويق الألعاب صراحةً كرفقاء أو أدوات تعليمية للأطفال. ويحذر الخبراء من أن المستخدمين الصغار يجدون صعوبة في التمييز بين المعلومات الموثوقة واستجابات الذكاء الاصطناعي التي قد تكون تخمينية أو متحيزة أو غير صحيحة واقعياً.
التحدي التنظيمي
تشير مجموعات المناصرة إلى أن القوانين الحالية، مثل قانون حماية خصوصية الأطفال على الإنترنت (COPPA) في الولايات المتحدة، قد تم وضعها قبل فترة طويلة من طفرة الذكاء الاصطناعي التوليدي. ويدعو تقرير منظمة (PIRG) مصنعي الألعاب إلى تنفيذ تصفية أكثر صرامة للمحتوى، وممارسات بيانات شفافة، وإفصاحات أوضح حول استخدام الذكاء الاصطناعي. والأهم من ذلك، يوصي التقرير بأن تقوم الشركات بتصميم أنظمة ذكاء اصطناعي مخصصة للأطفال بدلاً من إعادة استخدام نماذج صُممت في الأصل لجمهور البالغين.
الأسئلة الشائعة
ما هي المخاطر الرئيسية للألعاب المدعومة بتقنية الذكاء الاصطناعي؟
قد تولد استجابات ذات طابع للبالغين أو غير دقيقة، وتنقل البيانات الصوتية للأطفال إلى خوادم سحابية خارجية دون ضمانات كافية للخصوصية.
هل تخضع ألعاب الذكاء الاصطناعي هذه لتنظيم القوانين الحالية؟
على الرغم من وجود قوانين مثل قانون (COPPA) لحماية خصوصية الأطفال على الإنترنت، إلا أنها كُتبت قبل ظهور الذكاء الاصطناعي التوليدي، مما دفع مجموعات المناصرة للمطالبة بتحديث معايير السلامة.
رأيي التقني
يمثل دمج النماذج اللغوية الكبيرة ذات الأغراض العامة في ألعاب الأطفال إغفالاً كبيراً من قبل الشركات المصنعة التي تعطي الأولوية للحداثة التكنولوجية على حساب سلامة المستخدم. إن الاعتماد على إخلاء المسؤولية المخفي للتخفيف من الطبيعة غير المتوقعة للذكاء الاصطناعي التوليدي هو استراتيجية عمل غير مستدامة. ومع لحاق الهيئات التنظيمية بالتكنولوجيا، من المرجح أن نشهد توجهاً نحو فرض شهادات "آمنة للأطفال" إلزامية لنماذج الذكاء الاصطناعي المنشورة في الأجهزة الاستهلاكية. وسيؤدي هذا الضغط التنظيمي في النهاية إلى إجبار الشركات على تدريب نماذج متخصصة ومسيجة بدلاً من إعادة استخدام واجهات برمجة التطبيقات المخصصة للبالغين بتكلفة زهيدة، مما سيغير بشكل جذري كيفية تطوير التكنولوجيا التعليمية.