Chat Control: Europa Votó sobre tu Privacidad y Casi Pierdes POR UN VOTO
Por un solo voto (307 a 306), el Parlamento Europeo decidió la semana pasada si las empresas tecnológicas podían seguir leyendo tus mensajes privados de forma masiva. Sin orden judicial. Sin sospecha previa. Sin que lo supieras. Y llevan haciéndolo desde 2021.
¿Qué es Chat Control?
En 2021, la Unión Europea aprobó una norma que permitía a empresas como Meta, Google o Microsoft escanear de forma voluntaria y masiva todos los mensajes privados de los usuarios europeos. No los de sospechosos: los de todos.
La justificación era detectar material de abuso sexual infantil (CSAM), una problemática real que nadie cuestiona. Pero la solución fue permitir que las Big Tech abrieran y analizaran con algoritmos de inteligencia artificial cada mensaje, cada imagen y cada archivo que envías por WhatsApp, Messenger, Gmail o Instagram.
Sin orden judicial. Sin sospecha previa. Sin que tú lo supieras.
Técnicamente era una derogación temporal de la Directiva de Privacidad Electrónica europea. La palabra clave es “temporal”, porque se suponía que era una medida puente mientras se negociaba una regulación permanente. Pero en la UE ya sabemos lo que pasa con lo temporal: se prorroga una y otra vez.
Los datos que los defensores de Chat Control no quieren que sepas
Los datos del propio informe de evaluación de la UE son demoledores:
- El 99% de los reportes venían de una sola empresa (Meta). El resto de la industria prácticamente ni se molestaba.
- El 48% de los casos que la policía alemana investigó gracias a estos reportes eran irrelevantes penalmente. Casi la mitad. Recursos policiales desperdiciados revisando conversaciones inocentes en vez de investigar casos reales.
- Cerca del 40% de las investigaciones en Alemania eran contra menores de edad: adolescentes compartiendo imágenes entre ellos de forma consensuada. El sistema diseñado para proteger a los menores los estaba criminalizando.
Un estudio publicado este mismo mes de marzo demostró que PhotoDNA (el algoritmo de Microsoft, estándar de la industria) es poco fiable: los criminales pueden hacer que imágenes ilegales sean invisibles para el escáner con cambios mínimos, y al revés, imágenes inocentes pueden manipularse para generar falsos positivos reportados a la policía.
Cuando WhatsApp y Messenger activaron el cifrado de extremo a extremo, los reportes de escaneo cayeron un 50%. El sistema ya estaba muerto antes de que el Parlamento lo enterrara.
La votación: 307 a 306
El 26 de marzo de 2026, el Parlamento Europeo votó por última vez. Fue un auténtico thriller.
A mediados de marzo, el Parlamento había aprobado una extensión limitada con restricciones: solo escaneo con sospecha concreta, autorización judicial y sin tocar el cifrado. El Consejo (los gobiernos) rechazó estas restricciones. No querían precedentes que limitaran la regulación permanente que estaban negociando.
La propuesta volvió al Parlamento. El día antes del voto, cuatro comisarios europeos enviaron una carta urgente presionando a los eurodiputados. La carta decía literalmente que había que “proteger a los niños y no a los depredadores”. Presión institucional en estado puro.
El Parlamento no cedió. La enmienda que prohibía el escaneo indiscriminado se aprobó por 307 a 306. Un solo voto. Después, la propuesta completa de extensión se rechazó con 311 votos en contra.
Un dato importante: España votó consistentemente a favor de la vigilancia, junto con Hungría, Irlanda y Dinamarca. Fueron países como Alemania los que rompieron el equilibrio formando la minoría de bloqueo.
¿Qué pasa el 4 de abril de 2026?
El 4 de abril expira la derogación de la Directiva de Privacidad Electrónica. En la práctica: Meta, Google, Microsoft y LinkedIn tienen que dejar de escanear masivamente tus mensajes privados.
Pero esto no significa que se acabe la vigilancia. Sigue siendo legal que la policía investigue comunicaciones con sospecha concreta y orden judicial, que las plataformas escaneen contenido público, que cualquier usuario denuncie contenido ilegal y que las fuerzas de seguridad usen bases de datos de hashes conocidos.
La nueva amenaza: verificación de edad obligatoria
La regulación permanente (el Reglamento CSAR de abuso sexual infantil) sigue en plena negociación. El próximo trílogo entre Parlamento, Consejo y Comisión está programado para el 4 de mayo, con otro previsto para el 29 de junio.
El Consejo quiere un esquema de escaneo voluntario permanente. Básicamente, lo mismo que acaba de expirar pero sin fecha de caducidad.
Pero hay una amenaza que está pasando desapercibida: la verificación de edad obligatoria. Se está discutiendo exigir que los usuarios de apps de mensajería verifiquen su edad con documento de identidad o reconocimiento facial. Si no pueden aprobar el escaneo masivo de mensajes, lo que buscan es que te identifiques antes de enviar cualquier mensaje. El resultado práctico es equivalente: vigilancia por otra vía.
Y todo se está negociando a puerta cerrada. Sin actas públicas, sin retransmisión, con posiciones que se filtran en vez de comunicarse oficialmente. Europol, por cierto, pidió acceso ilimitado a todos los datos de escaneo, textualmente: “todos los datos nos van a ser útiles”, sin filtros, sin límites y sin supervisión judicial.
Las reacciones de la industria
Signal amenazó con retirarse de Europa si se aprobaba cualquier forma de escaneo que debilitara su cifrado. Apple abandonó en 2022 su propio sistema (NeuralHash) después de que expertos demostraran que era una puerta trasera. Incluso la industria reconoce que no se puede tener cifrado y vigilancia masiva al mismo tiempo.
Y Meta acaba de anunciar que a partir del 8 de mayo Instagram dejará de tener mensajes cifrados. La conexión no es casualidad.
Tres conclusiones clave
- La tecnología de escaneo no funciona. Falsos positivos, adolescentes criminalizados, recursos policiales desperdiciados. Más vigilancia no significa más protección.
- Los gobiernos no han renunciado. La regulación permanente sigue en negociación. Mayo y junio definirán si Europa tiene vigilancia de comunicaciones privadas de forma permanente. España, incluida.
- Te afecta directamente. No es una cuestión técnica ni abstracta. Se traduce en si alguien puede leer tus mensajes de WhatsApp sin que un juez lo autorice.
Lo que no se conoce no se debate. Y lo que no se debate se aprueba a puerta cerrada.
Si necesitas entender cómo la regulación europea afecta a tu negocio digital o quieres asegurarte de que cumples con la normativa de privacidad y protección de datos, reserva una consultoría y saldrás con un plan de acción claro.


