محتويات المقال
أطلقت هيئة تنظيم السلامة عبر الإنترنت في المملكة المتحدة تحقيقاً رسمياً ضد تطبيق Telegram بموجب قانون السلامة عبر الإنترنت لعام 2023، لفحص ما إذا كانت منصة المراسلة قد أوفت بواجباتها القانونية لحماية المستخدمين من مواد الاعتداء الجنسي على الأطفال. يستهدف هذا الإجراء التنظيمي إحدى خدمات المراسلة الأكثر استخداماً في العالم، مما يمثل تصعيداً كبيراً في جهود المملكة المتحدة لمراقبة المنصات الرقمية. بالنسبة للمراقبين في قطاع التقنية والمدافعين عن الخصوصية، يسلط هذا التحقيق الضوء على المخاطر القانونية المتزايدة للمنصات التي توازن بين إخفاء هوية المستخدم والامتثال الصارم للقرارات الحكومية.
بموجب الإطار التنظيمي الحالي، تمتلك هيئة Ofcom الصلاحية لفرض غرامات على الشركات غير الممتثلة تبلغ 18 مليون جنيه إسترليني أو بنسبة 10% من إيراداتها العالمية المؤهلة، أيهما أكبر. وفي حالات الانتهاكات الخطيرة والمستمرة، يمكن للهيئة التقدم بطلب لفرض تدابير لتعطيل الأعمال، والتي قد تجبر مزودي خدمة الإنترنت على حظر تطبيق Telegram بالكامل داخل المملكة المتحدة. ومع ذلك، فإن فتح هذا التحقيق الرسمي لا يشكل إدانة بحد ذاته؛ بل يمثل بداية لعملية جمع أدلة تستمر لعدة أشهر، حيث ستتاح للشركة فرصة الرد على أي قرارات مؤقتة.
معضلة التشفير والامتثال المسبق
شهدت علاقة تطبيق Telegram مع الهيئات التنظيمية في المملكة المتحدة تحولات حديثة، مما يعقد فرضية عدم الامتثال التام. في شهر ديسمبر من عام 2024، انضمت المنصة إلى مؤسسة مراقبة الإنترنت (IWF) وتعهدت بنشر تقنية مطابقة التجزئة وأدوات الحظر المدعومة بالذكاء الاصطناعي لتحديد مواد الاعتداء الجنسي على الأطفال المعروفة عبر قنواتها العامة. علاوة على ذلك، أقرت المراجعة السنوية لهيئة Ofcom في شهر مارس من عام 2026 صراحةً بأن تطبيق Telegram قد نجح في تقديم ضوابط عمرية استجابةً لقانون السلامة عبر الإنترنت.
على الرغم من هذه الخطوات، يكمن التوتر الأساسي في البنية المزدوجة للمنصة. فبينما يمكن لأدوات الكشف الخارجية الوصول إلى القنوات العامة، فإن ميزة المراسلة الخاصة المشفرة تفرض قيوداً هيكلية على إمكانية الإشراف على المحتوى. وقد جادلت الجمعية الوطنية لمنع القسوة ضد الأطفال (NSPCC) بأنه لا ينبغي أن يكون هناك أي جزء من الخدمة يمكن للجناة التصرف فيه دون اكتشافهم، مما يتحدى بشكل مباشر وجود محادثات خاصة غير خاضعة للمراقبة. يعكس هذا الجدل الأوسع في الصناعة حول التشفير التام، والذي دفع تطبيق Signal سابقاً للتحذير من أنه سينسحب من المملكة المتحدة إذا أُجبر على تنفيذ فحص من جانب العميل (Client-side scanning).
حملة تنظيمية أوسع نطاقاً
يأتي هذا التحقيق الأخير كجزء من حملة ضغط تنظيمي مستمرة على منصات المراسلة ووسائل التواصل الاجتماعي العاملة في المملكة المتحدة. منذ دخول قانون السلامة عبر الإنترنت حيز التنفيذ في عام 2025، فتحت هيئة Ofcom تحقيقات في ما يقرب من 100 خدمة وأصدرت حوالي اثنتي عشرة غرامة. الإطار المطبق على تطبيق Telegram مطابق للتحقيق الجاري في منصة X، والذي فُتح في شهر يناير من عام 2026 بعد تقارير تفيد بأن روبوت Grok AI الخاص بها كان يولد ويوزع صوراً صريحة للأطفال.
تتسع الشبكة التنظيمية بسرعة لتشمل قطاع التقنية بأكمله. في شهر مارس من عام 2026، راسلت هيئة Ofcom مباشرة ستة من أكبر المنصات، وهي منصة Facebook، وتطبيق Instagram، ولعبة Roblox، وتطبيق Snapchat، وتطبيق TikTok، ومنصة YouTube، مطالبة بأدلة ملموسة على إدخال تحسينات إضافية على سلامة الأطفال بحلول 30 أبريل. إن إضافة تطبيق Telegram إلى قائمة الإنفاذ هذه يحول تركيز الهيئة التنظيمية من لوحات الصور المتخصصة والمواقع الإباحية إلى شبكات الاتصال الرئيسية والمهيمنة عالمياً.
تصادم الخصوصية مع اللوائح التنظيمية
يكشف تحقيق Ofcom ضد Telegram عن التصادم الحتمي بين التشفير التام ومتطلبات الإشراف الصارمة على المحتوى. لقد حاول تطبيق Telegram بوضوح استرضاء الهيئات التنظيمية من خلال نشر أدوات الكشف في قنواته العامة، لكن جاذبيته الأساسية المتمثلة في المراسلة الخاصة الآمنة وغير الخاضعة للمراقبة تظل نقطة عمياء تنظيمية ضخمة بموجب قانون السلامة عبر الإنترنت لعام 2023.
إذا خلصت هيئة Ofcom في النهاية إلى أن البنية الخاصة لتطبيق Telegram تنتهك قانون المملكة المتحدة، فإنها ستفرض إنذاراً نهائياً سيحدد شكل السوق. إن فرض فحص من جانب العميل لن يعرض خصوصية ملايين المستخدمين الشرعيين للخطر فحسب، بما في ذلك الصحفيين والنشطاء، بل قد يؤدي أيضاً إلى نزوح جماعي للتطبيقات التي تركز على الخصوصية من سوق المملكة المتحدة. من المرجح أن تحدد نتيجة هذا التحقيق السابقة القانونية النهائية لكيفية عمل تطبيقات المراسلة المشفرة داخل الولايات القضائية الغربية شديدة التنظيم.