
¿Cómo esta futura normativa europea, en caso de implementarse, puede eliminar nuestra privacidad en internet, rompiendo incluso el cifrado de extremo a extremo?
El 14 de octubre de 2025 es la fecha más próxima en la que el Consejo Europeo (órgano formado por los 27 jefes de gobierno de los países de la UE) votarán principalmente a favor de Chat Control 2.0 una medida que en principio está dirigida para la prevención y lucha contra el contenido sexual infantil. Aunque implementar esta medida socavaría los derechos fundamentales de los europeos así como no ser la medida más efectiva para la lucha de acorde a asociaciones de defensa de la infancia y de la protección de los derechos digitales. Todo esto te explicaré en este post. Es importante que leas este artículo, los links que te dejo y puedas ver la información de los reglamentos de la UE, así como los informes y declaraciones realizados por organizaciones para que contrastes la información y tengas una opinión fundamentada.
¿Qué es Chat Control 1.0?
Reglamento (UE) 2021/1232 para luchar contra el abuso infantil, también llamado Chat Control 1.0. Este reglamento se extendió de la fecha límite de agosto de 2024 hasta abril de 2026, por lo que para después de este período se necesita la aprobación del nuevo reglamento conocido como Chat Control 2.0 que te lo explico más abajo. Es importante que conozcas el reglamento que antecede.
Chat Control 1.0 un reglamento del 2021 realizado por la Unión Europea con el fin de abordar el problema de los abusos sexuales a menores y el contenido que se difunde en Internet. En él se propone a las empresas de mensajería o de chat que puedan aplicar voluntariamente el análisis de CSAM ( Child Sexual Abuse Material, material de abuso sexual infantil) con la utilización de inteligencia artificial para el escaneo utilizando el mecanismo de hashing y en concreto el Perceptual hashing.
Este mecansimo consiste en convertir los mensajes, las fotos y videos en hash que son unos códigos númericos generados por un algoritmo. Con estos códigos la Inteligencia Artificial compara en la base de datos con contenido ilegal para ver si coinciden y entonces se avisaría a la policía u asociaciones y gobiernos responsables. Existen dos tipos de hashing: el primero es el hashing criptográfico clásico que solo envía la alerta con una coincidencia exacta. Luego tenemos el Perceptual hashing que intenta buscar que los códigos generados sean aproximados lo que nos lleva a que pueda haber falsos negativos y falsos positivos.
La asociación Child Rights International Network recoge y analiza la evaluación complementaria del Parlamento Europeo. En esta se afirmó que hay una tasa de positivos verdaderos del 80%, si hay 10000 CSAM solo 8000 serían detectados. Esto significa que unos 2000 CSAM no serían atribuidos como CSAM según las estimaciones de la evaluación del Parlamento Europeo, mostrando así que esta es una herramienta que comete fallos de un 20% que no es una cantidad menor. También en esta evaluación aunque se afirma una precisión del 99,9% en un banco de pruebas realizado por el Parlamento, este análisis no ha podido ser verificado de manera independiente por asociaciones como la mencionada.
Con los falsos positivos estimó el Parlamento que hay un millón de mensajes que son CSAM entre mil millones de mensajes, lo que implica que si su contenido tiene que ser verificado no solo por la IA que puede cometer errores, se necesitarían así más de 400 personas verificadoras. Es una tarea muy laboriosa el saber diferenciar entre falsos positivos y los verdaderos positivos, además también implica riesgos a la privacidad al acceder terceras personas verificadoras de tus datos privados. También dejar solo a la inteligencia artificial que analice los datos resulta arriesgada.
Es importante destacar que desde que se aprobó el reglamento popularmente conocido como Chat Control 1.0 empresas de Mensajería y correos electrónicos como Whatsapp o Protón han decidido no aplicarlo y seguir reforzando su cifrado de extremo a extremo, así como la privacidad de los usuarios. Solo lo han aplicado Google con Gmail y otras compañías.
¿Qué es Chat Control 2.0?
Consiste en el escaneo masivo obligatorio de mensajes y vídeos privados utilizando la inteligencia artificial, amenazando el cifrado de extremo a extremo. Esta vulneración de la privacidad tan flagrante lo justifican con el fin de armonizar y unificar la legislación para la prevención de los abusos sexuales. Estableciendo un límite importante y que vulnera los derechos fundamentales, algo que recoge el mismo reglamento (COM/2022/209 final) [Propuesta de reglamento] al final de la imagen inferior.

Si comparamos este fragmento del reglamento propuesto con el reglamento de Chat Control 1.0 veremos que el nuevo tira abajo el cifrado de extremo por el fin de un control más estricto, más masivo y que genera una intromisión en nuestros datos para prevenir ante todo el CSAM.
(25) El cifrado de extremo a extremo es un instrumento importante para garantizar la seguridad y la confidencialidad de las comunicaciones de los usuarios, incluidas las de los menores. Todo debilitamiento del cifrado puede ser aprovechado por terceros malintencionados. Por tanto, ninguna disposición del presente Reglamento debe interpretarse en el sentido de que prohíbe o debilita el cifrado de extremo a extremo.
Nuestros derechos como ciudadanos de la UE establecidos en la Carta de los Derechos Fundamentales de la Unión Europea y que podrían verse amenazados, además de la opinión de las asociaciones y organización defensoras de los derechos digitales.
Título II, Artículo 7, Respeto de la vida privada y familiar:
Toda persona tiene derecho al respeto de su vida privada y familiar, de su domicilio y de sus comunicaciones.
Título II Artículo 8
Protección de datos de carácter personal
1. Toda persona tiene derecho a la protección de los datos de carácter personal que le conciernan.
2. Estos datos se tratarán de modo leal, para fines concretos y sobre la base del consentimiento de
la persona afectada o en virtud de otro fundamento legítimo previsto por la ley. Toda persona tiene
derecho a acceder a los datos recogidos que le conciernan y a obtener su rectificación.
3. El respeto de estas normas estará sujeto al control de una autoridad independiente.
Con el escaneo masivo se pone en riesgo la privacidad de las comunicaciones y se vulnera estos derechos. Esto lo han criticado asociaciones como Der Kinderschutzbund Bundesverband ( Asociación federal alemana de protección de la infancia), Mydata.org o Open Dialogue o European Digital Rights en la que se unen un conglomerado de asociaciones en defensa de los derechos digitales. Destacan que Chatcontrol 2.0 vulnera los derechos a la vida privada y a la protección de los datos, además supone utilizar una herramienta que tiene errores y es demasiado nueva. También lo han considerado como ineficaz para combatir el CSAM y desproporcionada.
Es ineficaz ya que la eliminación del cifrado de extremo extremo también vulneraría el derecho de protección de las víctimas al no ser confidenciales los contactos con su abogado o para poder contactar con distintas asociaciones, así como puede sobresaturar las denuncias de CSAM al escanearlo con el riesgo de falsos positivos y verdaderos positivos sin detectar. Desproporcionada porque lo quieren extender a todo el espacio digital y puede generar puertas traseras en las redes sociales y mensajería que hacen peligrar la seguridad de nuestros datos.
Por otro lado no se asegura en el reglamento que no se vayan a utilizar nuestros mensajes para la censura a nivel nacional al utilizar la excusa del escaneo de CSAM para detectar y controlar a opositores políticos. O también puede producir en la ciudadanía un miedo a opinar y generar debates a nivel digital. Este hecho podría derivar que con el escaneo masivo se tolerarán derivas autoritarias de uno u otro signo del espectro político que gobierne en cada país. Por lo tanto esta medida podría ser una herramienta política y de control a la ciudadanía por parte de algunos gobiernos que piensen que la democracia no va mucho con ellos.
Os dejo este video donde amplía la información ya presentada.
Posibles medidas alternativas a Chatcontrol 2 para luchar contra el CSAM.
Con este artículo también quiero sugerir propuestas para luchar contra el CSAM de una manera que no atente contra nuestros derechos digitales, porque creo que es una lucha que se debe seguir y hay alternativas reales a chat control 2.0 que no conlleven la destrucción de nuestros derechos digitales. Estas son las propuestas:
- Edad mínima de uso de WhatsApp o Instagram. Además de control de edad en juegos como Roblox. Además de que siendo menor es clave que te puedan proporcionar las redes sociales una guía accesible de uso responsable. Siendo esta guía de forma interactiva con videos y publicaciones breves que concentren aún así la información. También esta debe informar de cómo detectar, reportar y denunciar fácilmente cuentas falsas y cuentas de adultos haciéndose pasar por menores por un canal establecido.
- Control más exhaustivo de perfiles falsos en Instagram o Twitter.
- Propuesta intermedia:Escaneo voluntario de algunas redes sociales, aunque sin estar establecido constantemente sino puntual. (Aún así puede vulnerar los derechos a la privacidad )
- Charlas tanto a padres como a alumnos sobre este tema y el uso de las redes sociales de manera segura. La prevención resulta clave para que los niños y adolescentes sepan reconocer cualquier intento de grooming.
- Propuesta más opuesta a Chat Control 2.0. Un escaneo de la conversación necesita una orden judicial previa. Facilitando antes las denuncias por parte de los menores por un canal propio a la policía al igual que reportando al usuario en la red social.
¿Qué podemos hacer para frenar esta medida?
En la página Fight Chat Control puedes encontrar una lista de recursos e información adicional. Así como ver la postura de los parlamentarios y de los gobiernos del consejo para animar a los europarlamentarios que no hayan afirmado su postura que se posicionen en contra mandándoles un correo ejerciendo presión ( podéis encontrar el correo en la página mencionada ). Además de a los que están en contra también se les puede escribir para que presionen a los parlamentarios de su mismo Eurogrupo a que cambien su postura, de que sirve que estén en contra si tu aliado más próximo en el parlamento lo apoya.
Cuánto más gente les escribamos no les quedará otra que posicionarse y ver que está decisión nos importa porque vulnera nuestros derechos. Hay europarlamentarios y gobiernos de los países de todos los espectros políticos que apoyan Chat Control 2.0, el papel de los europarlamentarios en el Parlamento Europeo es igual de importante que el del Consejo y la Comisión en la configuración final del reglamento que todavía está configurándose. También es útil que no solo enviemos los correos a los eurodiputados de nuestro país, también podemos practicar el inglés, el alemán o el francés para que los parlamentarios de otros países sepan nuestra opinión. No todo está perdido, porque países con una gran población y peso en el Parla
Como ciudadanos europeos tenemos derecho a expresar nuestro desacuerdo con la medida, además de decir bien alto cómo queremos construir Europa. Yo no quiero una Europa en la que se pisoteen mis derechos digitales reconocidos. Esto no va de izquierdas o de derechas va de defender nuestros derechos.

Comparte este post, así como el vídeo para que esta normativa pueda llegar a cada persona y que cada uno tome las acciones que vea necesarias y podamos ejercer presión.
Fuentes y enlaces a los que podemos recurrir
- Reglamento (UE) 2021/1232 para luchar contra el abuso infantil, también llamado Chat Control 1.0 https://eur-lex.europa.eu/legal-content/ES/TXT/PDF/?uri=CELEX:32021R1232
- Kinderschutzbund Bundesverband e. V. (2023, 1 de marzo). Statement by the Child Protection Association (Der Kinderschutzbund Bundesverband e. V.) on the Public Hearing of the Digital Affairs Committee on “Chat Control” (audiencia pública del 1 de marzo de 2023). Kinderschutzbund. Página 16 https://kinderschutzbund.de/wp-content/uploads/2023/02/Statement-for-the-public-hearing-on-chat-control-on-March-1-2023_DKSB.pdf
- Gheorghiu, D. (2023, 10 de noviembre). Explaining the technology for detecting child sexual abuse online. Child Rights International Network. Recuperado de https://home.crin.org/readlistenwatch/stories/explainer-detection-technologies-child-sexual-abuse-online
- Ecorys, Queen Mary University of London, Rijksuniversiteit Groningen, KU Leuven & European Parliamentary Research Service. (2023, abril). Proposal for a regulation laying down rules to prevent and combat child sexual abuse: Complementary impact assessment (EPRS STU(2023)740248). European Parliament. https://www.europarl.europa.eu/RegData/etudes/STUD/2023/740248/EPRS_STU(2023)740248_EN.pdf
- Comisión Europea. (2022, 11 de mayo). Propuesta de Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas para prevenir y combatir el abuso sexual de menores (COM/2022/209 final) [Propuesta de reglamento]. EUR-Lex. Recuperado de https://eur-lex.europa.eu/legal-content/ES/TXT/?uri=CELEX:52022PC0209