La AEPD acaba de publicar un documento de 81 páginas sobre inteligencia artificial agéntica y protección de datos. Es el primer documento de este tipo en toda la Unión Europea. Y afecta a cualquiera que use ChatGPT, Copilot, Claude o cualquier agente de IA en su negocio.
Yo uso un agente de IA todos los días para gestionar mi negocio. Tiene acceso a mi calendario, a mis analíticas, a mi Drive, a mi Telegram. Me he leído las 81 páginas para que tú no tengas que hacerlo.
Y te cuento qué estamos haciendo bien… y qué estamos haciendo mal.
Qué es la IA agéntica (y por qué no es lo mismo que un chatbot)
Un chatbot es reactivo. Tú le preguntas, él responde. Fin.
Un agente de IA es proactivo. Puede leer tus emails, consultar tu calendario, buscar información en internet, tomar decisiones y ejecutar acciones. Solo. Sin que tú le digas nada.
Y esto ya no es ciencia ficción. Según el INE, el 21,1% de las empresas españolas de más de diez empleados ya usan inteligencia artificial. El doble que el año anterior. Herramientas como n8n, Make o Zapier hacen que cualquiera pueda montar un agente en una tarde.
El problema es que la ley no ha cambiado. El RGPD sigue siendo el mismo. Y la AEPD acaba de dejar muy claro cómo se aplica a esta tecnología.
Los 5 puntos clave del documento de la AEPD
He seleccionado los cinco puntos que más te afectan si eres emprendedor, autónomo o tienes un negocio online.
1. Si usas un agente de IA, TÚ eres el responsable del tratamiento
Esto es lo primero que deja claro la AEPD y es fundamental.
Da igual que el agente haya actuado solo. Da igual que tú no le hayas dado esa instrucción concreta. Da igual que el error sea del modelo de OpenAI o de Anthropic.
Tú eres el responsable del tratamiento. Punto.
La AEPD lo dice textualmente: el responsable es quien determina los fines y medios del tratamiento, independientemente de la forma que tengan dichos medios. Si usas un agente que accede a datos de tu negocio, tú decides los fines, tú eliges los medios, tú respondes.
¿Y las empresas que te proporcionan la IA? OpenAI, Anthropic, Google… Esos son encargados de tratamiento. Lo que significa que necesitas tener contratos de protección de datos (DPA) con ellos. Y no basta con aceptar los términos de servicio. Hay que verificar que cumplen.
2. La memoria del agente es un riesgo legal
Este es el punto al que la AEPD dedica más páginas. Y con razón.
Los agentes de IA tienen memoria. Memoria a corto plazo (el contexto de la conversación) y memoria a largo plazo (archivos, bases de datos, historial). Y aquí viene el problema: ¿qué se guarda? ¿Cuánto tiempo? ¿Quién puede acceder? ¿Se puede borrar?
La AEPD identifica cuatro riesgos concretos:
- Retención excesiva. Que el agente acumule conversaciones, decisiones y datos sin política de borrado.
- Falta de compartimentación. Que datos de un proyecto se mezclen con datos de otro, o que información confidencial acabe donde no debería.
- Perfilado no autorizado. La memoria permite crear perfiles detallados de comportamiento de usuarios e incluso de empleados.
- Integridad. Si alguien manipula la memoria del agente, puede cambiar cómo toma decisiones en el futuro.
Tu obligación: definir políticas claras de qué se guarda, cuánto tiempo, y garantizar la capacidad de borrar datos cuando se ejerza el derecho de supresión.
3. La Regla de 2 — el test que todos deberíais hacer
Este es quizá el concepto más útil de todo el documento. La AEPD lo llama la Regla de 2.
Son tres factores de riesgo:
- El agente recibe información de fuentes no controladas (emails, documentos externos, páginas web).
- El agente tiene acceso a información sensible (tu calendario, datos financieros, estrategias de negocio).
- El agente puede ejecutar acciones automáticas (enviar emails, modificar datos, hacer compras).
La regla dice: como máximo, puedes tener dos de estos tres factores al mismo tiempo. Nunca los tres.
Un ejemplo concreto: imagina que tu agente lee los emails que te llegan (factor 1) y tiene acceso a tu CRM con datos de clientes (factor 2). Si se dan esas dos condiciones, el agente no puede ejecutar acciones automáticas sin supervisión humana (factor 3).
¿Por qué? Porque un email con instrucciones ocultas — texto invisible, blanco sobre fondo blanco — podría manipular al agente para que acceda a datos sensibles y los envíe a un tercero. La AEPD describe estos ataques de inyección de prompts de cero clics. Son reales. Y son el motivo por el que esta regla existe.
4. Transferencias internacionales: tus datos van a Estados Unidos
Si usas ChatGPT, Copilot, Claude o cualquier modelo de una empresa americana, tus datos cruzan el Atlántico.
La AEPD es clara: si la inclusión de un sistema de IA agéntica produce transferencias de datos personales a un tercer país, hay que asegurar las garantías del Capítulo V del RGPD. Eso significa cláusulas contractuales tipo, verificar garantías adecuadas e informar a tus clientes.
¿Cuántos de vosotros que usáis ChatGPT para gestionar datos de clientes habéis actualizado vuestra política de privacidad para reflejar que esos datos van a servidores de OpenAI en Estados Unidos?
Las consecuencias de no hacerlo son reales. La multa a Aena del año pasado fue de 10 millones de euros — la mayor sanción de la historia de la AEPD. Las sanciones acumuladas por RGPD en Europa superan los 7.100 millones de euros. Y los expertos anticipan las primeras sanciones específicas por uso de IA en 2026.
5. El agente puede ver más de lo que debería
El principio de minimización es uno de los pilares del RGPD. Solo puedes tratar los datos estrictamente necesarios para la finalidad.
La AEPD pone un ejemplo muy claro: si necesitas saber si un empleado está en la lista de invitados de un evento, podrías descargar toda la lista y que el agente la procese. Pero estarías tratando datos de todos los invitados. La alternativa es diseñar el agente para que pregunte directamente si esa persona está en la lista, sin descargar nada más.
La clave es implementar una política de acceso basada en el principio de need to know. El agente solo debería acceder a lo que necesita para la tarea concreta que está ejecutando en ese momento.
Y la AEPD advierte de algo más: los agentes que conectan con múltiples servicios tienen lo que llaman shadow leaks. Filtraciones silenciosas y progresivas de información a través de interacciones aparentemente legítimas. Cada respuesta parece segura, pero combinadas permiten reconstruir información confidencial.
Mi caso real: qué hacemos bien y qué hacemos mal en este proyecto sandbox
Yo tengo un agente de IA que me asiste todos los días. Tiene acceso a Google Calendar (lectura y escritura), Google Drive, YouTube Analytics, Google Analytics, métricas de mi CRM y Telegram. Además, tiene memoria persistente donde guarda notas, decisiones y proyectos.
Después de leer las 81 páginas, he hecho un análisis honesto.
Lo que hacemos bien
- Memoria compartimentada. Archivos separados por día, por proyecto, por tipo de decisión. No es un bloque monolítico.
- Reglas claras de acceso. Qué calendarios puede leer y en cuáles puede escribir está definido explícitamente.
- Supervisión humana real. Para acciones externas como enviar emails o publicar contenido, el agente pregunta antes.
- Sub-agentes aislados. Cuando hace investigación en internet, lo hace a través de agentes que no tienen acceso a datos personales. Eso protege contra inyección de prompts. Y la AEPD habla específicamente de esto.
Lo que tenemos que mejorar
- Registro de Actividades de Tratamiento (RAT). No tenemos uno actualizado que incluya al agente. La AEPD dice que es obligatorio actualizarlo cuando introduces un agente. Asique, antes de que entre en producción tocará ponerlo en orden.
- Política de retención de memoria. Los archivos diarios se acumulan sin fecha de caducidad ni criterio de borrado. Por lo que hemos tenido que reprogramar la política de borrado.
- DPA con proveedores. Hay que verificar que los contratos de encargado del tratamiento con Anthropic y Google están en orden. Una vez verificado el “árbol” de modelos, tocará revisar cada DPA por separado y archivarlo adecuadamente.
- Política de privacidad. Ahora mismo no menciona que uso un agente de IA ni que ciertos datos podrían pasar por servidores en Estados Unidos. Antes de entrar en producción, tocará actualizar e informar.
- Regla de 2. En algunos escenarios, estamos en el límite. Tocará poner safeguards para esto antes de entrar en producción.
Si yo, que soy abogado y llevo años trabajando con protección de datos, tengo estos deberes pendientes… imagina el emprendedor que montó un agente con n8n el fin de semana pasado y lo conectó a su email y a su base de datos de clientes sin pensar en nada de esto.
Qué hacer si usas agentes de IA en tu negocio
Cuatro acciones concretas que puedes implementar ya:
1. Documenta qué datos accede tu agente. Haz una lista: qué servicios, qué datos, de quién. Si no sabes qué datos trata tu agente, no puedes cumplir la ley.
2. Revisa los contratos con tus proveedores de IA. Si usas OpenAI, Anthropic o Google, busca el DPA (Data Processing Agreement) y léelo. Verifica que cubre transferencias internacionales.
3. Actualiza tu política de privacidad. Si datos de tu negocio o de tus clientes pasan por un agente de IA o un LLM externo, tienes que informar. Es obligatorio.
4. Aplica la Regla de 2. Revisa si tu agente tiene las tres condiciones a la vez: entradas no controladas, acceso a datos sensibles y acciones automáticas. Si las tiene, necesitas poner supervisión humana en algún punto del proceso.
El reloj corre: AI Act, agosto 2026
En agosto de 2026 — dentro de seis meses — entra en aplicación completa el Reglamento Europeo de Inteligencia Artificial (AI Act). Con sanciones de hasta 35 millones de euros o el 7% de la facturación mundial. Un régimen sancionador más duro incluso que el del RGPD.
La IA agéntica es probablemente la tecnología más transformadora que va a llegar a los negocios en los próximos años. Pero no es un juguete. Es una herramienta que trata datos personales, toma decisiones y ejecuta acciones en tu nombre.
La AEPD ya ha puesto las reglas sobre la mesa. El que se prepare ahora, gana. El que lo ignore, paga.
📥 Descarga la guía gratuita sobre IA agéntica y protección de datos — Un resumen práctico de las 81 páginas de la AEPD con checklist incluido.
📞 ¿Necesitas ayuda para auditar cómo usas la IA en tu negocio? — Consultoría especializada en protección de datos e inteligencia artificial.


