Apple تقاوم مخاوف فحص إساءة معاملة الأطفال فى الأسئلة الشائعة الجديدة
الكاتب:
سامي
-
"فى سؤال شائع جديد، حاولت Apple تهدئة المخاوف من أن إجراءاتها الجديدة لمكافحة إساءة معاملة الأطفال يمكن أن تتحول إلى أدوات مراقبة من قبل الحكومات الاستبدادية، وكتبت الشركة: ""لنكن واضحين، تقتصر هذه التكنولوجيا على اكتشاف CSAM ""مواد الاعتداء الجنسى على الأطفال"" المخزنة فى iCloud ولن نوافق على أى طلب حكومى لتوسيعها، وفقا لموقع the verege"".
وتشتمل أدوات Apple الجديدة، التى تم الإعلان عنها، على ميزتين مصممتين لحماية الأطفال، أحدهما، يسمى ""أمان الاتصال""، يستخدم التعلم الآلي على الجهاز لتحديد وتمويه الصور الجنسية الصريحة التي يتلقاها الأطفال في تطبيق الرسائل، ويمكنه إخطار أحد الوالدين إذا قرر طفل يبلغ من العمر 12 عامًا أو أصغر عرض هذه الصورة أو إرسالها، والثاني مصمم لاكتشاف CSAM المعروف عن طريق مسح صور المستخدمين إذا اختاروا تحميلها على iCloud. يتم إخطار Apple إذا تم اكتشاف CSAM ، وسوف تنبه السلطات عندما تتحقق من وجود هذه المواد.
وقوبلت الخطط برد فعل عنيف سريع من مجموعات الخصوصية الرقمية والناشطين، الذين جادلوا بأن هذه توفر بابًا خلفيًا فى برامج Apple تشير هذه المجموعات إلى أنه بمجرد وجود مثل هذا الباب الخلفي، يكون هناك دائمًا احتمال توسيعه للبحث عن أنواع المحتوى التي تتجاوز مواد الاعتداء الجنسي على الأطفال، يمكن للحكومات الاستبدادية استخدامه للبحث عن مواد معارضة سياسيًا، أو يمكن للأنظمة المناهضة للمثليين ومزدوجي الميل الجنسي ومغايري الهوية الجنسانية استخدامه لقمع التعبير الجنسى.
كما كتبت مؤسسة Electronic Frontier Foundation: ""حتى الباب الخلفي الموثق بدقة، والمدروس بعناية، والضيق النطاق لا يزال بابًا خلفيًا""، ""لقد رأينا بالفعل هذه المهمة تتسلل في العمل، تم إعادة توظيف إحدى التقنيات التي تم إنشاؤها في الأصل لفحص صور الاعتداء الجنسي على الأطفال وتجزئتها لإنشاء قاعدة بيانات للمحتوى ""الإرهابي"" الذي يمكن للشركات المساهمة فيه والوصول إليه لغرض حظر مثل هذا المحتوى "".
ومع ذلك ، تجادل شركة Apple بأن لديها ضمانات لمنع استخدام أنظمتها لاكتشاف أي شيء آخر غير صور الاعتداء الجنسي. تقول أن قائمة الصور المحظورة مقدمة من المركز الوطني للأطفال المفقودين والمستغلين (NCMEC) ومنظمات سلامة الأطفال الأخرى ، وأن النظام ""يعمل فقط مع تجزئات صور CSAM المقدمة من NCMEC وغيرها من منظمات سلامة الأطفال""، تقول Apple إنها لن تضيف إلى قائمة تجزئات الصور هذه، وأن القائمة هي نفسها عبر جميع أجهزة iPhone و iPad لمنع الاستهداف الفردي للمستخدمين.
تقول الشركة أيضًا إنها سترفض مطالب الحكومات بإضافة صور غير CSAM إلى القائمة، ""لقد واجهنا مطالب لبناء ونشر التغييرات التي فرضتها الحكومة والتي تقوض خصوصية المستخدمين من قبل، ورفضنا هذه المطالب بثبات، سنستمر في رفضهم في المستقبل.
ومن الجدير بالذكر أنه على الرغم من تأكيدات شركة Apple ، فقد قدمت الشركة تنازلات للحكومات في الماضي من أجل مواصلة العمل فى بلدانهم، تبيع أجهزة iPhone بدون FaceTime فى البلدان التي لا تسمح بالمكالمات الهاتفية المشفرة، وفي الصين أزالت آلاف التطبيقات من متجر التطبيقات التابع لها، كما تم نقلها لتخزين بيانات المستخدم على خوادم اتصالات تديرها الدولة.
نحن نستخدم ملفات تعريف الارتباط (كوكيز) لفهم كيفية استخدامك لموقعنا ولتحسين تجربتك. من خلال الاستمرار في استخدام موقعنا ، فإنك توافق على استخدامنا لملفات تعريف الارتباط.