خطة Apple المثيرة للجدل لمحاولة الحد من صور الاعتداء الجنسى على الأطفال
الكاتب:
سامي
-
"عندما أعلنت Apple عن وضع تغييرات تخطط لإدخالها على أجهزة iOS فى محاولة للمساعدة فى الحد من إساءة معاملة الأطفال من خلال العثور على مواد الاعتداء الجنسى على الأطفال (CSAM)، ولدت أجزاء من خطتها ردود فعل عنيفة.
ومنها وفقا لما نشره موقع "" the verege "" التقنى، أولاً، يتم طرح تحديث لتطبيق البحث والمساعد الصوتى Siri على iOS 15 و watchOS 8 و iPadOS 15 و macOS Monterey، عندما يبحث المستخدم عن مواضيع تتعلق بالاعتداء الجنسى على الأطفال، ستعيد Apple توجيه المستخدم إلى موارد للإبلاغ عن CSAM ، أو الحصول على مساعدة لجذب هذا المحتوى.
ولكن خطتى CSAM الأخريين من Apple هما اللتان قوبلتا بالنقد، وسيضيف أحد التحديثات خيار الرقابة الأبوية إلى الرسائل، ويرسل تنبيها إلى الوالدين إذا كان طفل يبلغ من العمر 12 عاما أو أصغر يشاهد أو يرسل صورا جنسية صريحة، ويحجب الصور لأى مستخدمين أقل من 18 عامًا.
والأمر الأكثر إثارة للجدل هو خطة Apple لمسح الصور الموجودة على الجهاز للعثور على CSAM قبل تحميلها على iCloud ، وإبلاغ المشرفين فى Apple بها والذين يمكنهم بعد ذلك تحويل الصور إلى المركز الوطنى للأطفال المفقودين والمستغلين (NCMEC) فى حالة وجود تطابق محتمل، وبينما تقول Apple إن الميزة ستحمي المستخدمين مع السماح للشركة بالعثور على محتوى غير قانونى، ويقول العديد من منتقدى Apple والمدافعين عن الخصوصية إن هذا الحكم هو فى الأساس باب خلفى أمنى، وهو تناقض واضح مع التزام Apple المعلن منذ فترة طويلة بخصوصية المستخدم.
نحن نستخدم ملفات تعريف الارتباط (كوكيز) لفهم كيفية استخدامك لموقعنا ولتحسين تجربتك. من خلال الاستمرار في استخدام موقعنا ، فإنك توافق على استخدامنا لملفات تعريف الارتباط.