Reglamento Europeo de IA: lo que tu empresa tiene que hacer antes de agosto de 2026
El 2 de agosto de 2026 entra en aplicación plena el Reglamento Europeo de Inteligencia Artificial (EU AI Act). Es la primera ley del mundo que regula cómo las empresas pueden usar la IA, y las multas llegan hasta 35 millones de euros o el 7% de la facturación global.
En este artículo te explico qué dice la ley, a quién afecta, qué obligaciones ya están en vigor y qué pasos concretos puedes dar esta semana para cumplir.
¿Qué es el EU AI Act?
El Reglamento Europeo de Inteligencia Artificial se aprobó en junio de 2024 y se está aplicando por fases. No es una ley que tarda años en notarse: desde febrero de 2025 ya hay prácticas de IA completamente prohibidas en la Unión Europea, y desde agosto de 2025 los modelos de IA generativa como ChatGPT, Claude o Gemini tienen obligaciones específicas.
Tiene alcance extraterritorial, igual que el RGPD. Da igual dónde estés: si tu sistema de IA se usa dentro del mercado europeo, tienes que cumplir.
¿A quién afecta? No solo a las grandes tecnológicas
El error más común es pensar que esto es solo para OpenAI, Google o Meta. La ley distingue tres tipos de actores:
- Proveedores: los que desarrollan la IA (OpenAI, Anthropic, Google).
- Importadores y distribuidores.
- Implementadores (deployers): cualquiera que USE un sistema de IA en su actividad profesional.
Si usas ChatGPT para filtrar currículums, un chatbot para atender clientes, un sistema de scoring para evaluar riesgos o generas contenido con IA para publicarlo, eres un implementador y tienes obligaciones.
Los 4 niveles de riesgo
La ley clasifica los sistemas de IA en cuatro niveles. Las obligaciones dependen del nivel:
Riesgo inaceptable (prohibido)
Scoring social, manipulación subliminal, explotación de vulnerabilidades y vigilancia biométrica masiva en tiempo real. Prohibido desde febrero de 2025. Multa: hasta 35 millones de euros.
Alto riesgo
Sistemas que afectan a derechos fundamentales: selección de personal, acceso a crédito, evaluación de clientes, verificación de identidad, IA en sanidad y educación. Obligaciones: documentación técnica, supervisión humana, evaluación de impacto y registro en la base de datos europea.
Riesgo limitado
Chatbots, generadores de contenido y deepfakes. Obligación principal: transparencia. A partir de agosto de 2026, todo contenido generado por IA debe etiquetarse como tal.
Riesgo mínimo
Filtros de spam, IA en videojuegos, recomendaciones básicas. Sin obligaciones específicas.
Importante: la clasificación depende del uso, no de la tecnología. El mismo ChatGPT puede ser riesgo mínimo, limitado o alto riesgo según para qué lo uses.
Lo que ya deberías estar haciendo
Hay dos obligaciones ya en vigor desde febrero de 2025:
- Prohibición de prácticas de riesgo inaceptable. Si usas IA para algo de la lista de prohibiciones, ya estás incumpliendo.
- Obligación de alfabetización en IA (artículo 4). Las empresas que utilicen sistemas de IA deben garantizar que su personal tenga un nivel suficiente de conocimiento sobre inteligencia artificial, proporcionado a sus funciones y al contexto de uso.
Si tu equipo usa ChatGPT pero nadie entiende sus limitaciones, sus sesgos o los riesgos de meter datos de clientes en un modelo de lenguaje, ya estás incumpliendo el artículo 4.
España y la AESIA
España fue el primer país de la UE en crear su autoridad de supervisión: la AESIA (Agencia Española de Supervisión de la Inteligencia Artificial). Ya ha respondido más de 700 consultas en su primer año y está colaborando con la Comisión Europea en la investigación sobre Grok, la IA de la plataforma X.
A partir de agosto de 2026 tendrá plenas competencias para inspeccionar y sancionar.
4 pasos que puedes dar esta semana
- Haz un inventario de todas las herramientas de IA que usa tu empresa. Todas. ChatGPT, Copilot, chatbots, sistemas de análisis, automatizaciones.
- Clasifica cada uso por nivel de riesgo. ¿Afecta a derechos fundamentales? ¿Condiciona el acceso de personas a empleo, crédito o servicios?
- Forma a tu equipo. La obligación de alfabetización ya está en vigor. No necesitas un máster, necesitas que la gente entienda qué puede y qué no puede hacer con la IA que usa.
- Revisa tus contratos con proveedores de IA. Si usas una herramienta de un tercero para algo de alto riesgo, la responsabilidad no es solo del proveedor. Es tuya también.
¿Necesitas ayuda?
Si después de leer esto no tienes claro si tu empresa cumple o qué nivel de riesgo tienen tus herramientas de IA, podemos verlo juntos en una consultoría personalizada. Saldrás con tu inventario clasificado y un plan de acción concreto para cumplir.

