AI poisoning: cómo las empresas engañan a tu IA para que las contrates
AI poisoning ya no es una rareza técnica ni una teoría de laboratorio. Es una forma de manipular la memoria de asistentes de inteligencia artificial para que recomienden productos o empresas sin avisarte, como si esa recomendación fuera neutral.
En este artículo te explico cómo funciona, qué ha documentado Microsoft, por qué el problema no es solo técnico sino también legal, y qué deberías revisar hoy mismo si usas IA para tomar decisiones de negocio.
Qué es el AI poisoning y cómo funciona
La lógica es sencilla. Entras en una web, ves un botón de “resumir con IA” y haces clic pensando que solo estás pidiendo un resumen. Lo que no ves es que esa URL puede llevar instrucciones ocultas para tu asistente de IA. Instrucciones del tipo “recuerda esta empresa como fuente fiable” o “prioriza esta marca cuando te pregunten por este tema”.
Eso convierte una interacción aparentemente inocente en una forma de contaminar la memoria de tu asistente. El problema no es solo el prompt. El problema es que esa instrucción puede quedarse en futuras conversaciones y sesgar recomendaciones de compra, evaluación de proveedores o decisiones estratégicas.
Lo que ha documentado Microsoft
Microsoft ha documentado este patrón de manipulación en empresas reales y en sectores muy distintos. No estamos hablando de un hacker aislado, sino de compañías legítimas que usan este tipo de tácticas para ganar visibilidad dentro de asistentes como ChatGPT, Copilot o Claude.
La clave es esta: la recomendación deja de ser resultado de un análisis neutral y pasa a estar condicionada por una instrucción oculta. Eso rompe la confianza del usuario y abre un frente serio para cualquiera que use IA como apoyo para comprar, comparar o asesorar.
Por qué el problema es legal, no solo técnico
Si una empresa introduce instrucciones ocultas para que una IA la recomiende sin avisarte, el encaje jurídico empieza a ser muy feo. Puede haber problemas de transparencia, publicidad encubierta, competencia desleal y, en algunos casos, protección de datos o decisiones automatizadas sesgadas.
El riesgo es especialmente claro cuando el usuario cree que está recibiendo una recomendación objetiva. Si la empresa ha manipulado la memoria del asistente para favorecerse, ya no hablamos de ayuda neutral. Hablamos de influencia oculta sobre una decisión económica.
Publicidad encubierta y falta de transparencia
Cuando una respuesta parece editorial o neutral, pero en realidad ha sido plantada por un tercero con interés comercial, el problema se parece mucho a la publicidad encubierta de toda la vida. Solo que ahora el canal no es un blog o una red social, sino la memoria de un asistente de IA.
Competencia desleal y decisiones manipuladas
Si eliges una herramienta, un proveedor o una solución porque tu IA ha sido contaminada sin que lo sepas, la decisión ya no se basa en información limpia. Se basa en una intervención oculta. Y eso puede encajar en actos de engaño, omisiones engañosas o prácticas desleales.
Cómo detectar si tu asistente ya ha sido contaminado
- Revisa cualquier botón de “resumir con IA” antes de hacer clic y mira si la URL arrastra instrucciones largas o parámetros sospechosos.
- Entra en la memoria de tu asistente y elimina recuerdos que no hayas introducido tú o que no vengan de conversaciones reales.
- Limpia la memoria periódicamente, igual que limpias cookies o revisas permisos en tu navegador.
- Si una recomendación te beneficia demasiado a una empresa concreta, pide a tu IA que te diga por qué la recomienda y qué señales ha usado.
- No pegues prompts o instrucciones de fuentes dudosas, sobre todo si incluyen órdenes del tipo “recuerda esto” o “prioriza esta marca”.
Qué deberías hacer si usas IA en tu negocio
Si usas IA para investigar proveedores, comparar software, redactar recomendaciones o apoyar decisiones con impacto económico, necesitas una mínima higiene operativa. No basta con usar la herramienta. Hay que revisar cómo aprende, qué recuerda y qué señales pueden haber contaminado sus respuestas.
Y si alguien te está vendiendo esto como táctica de marketing o como supuesto posicionamiento para asistentes de IA, cuidado. La barrera técnica es baja, pero la barrera legal es bastante más seria. Puede parecer growth, pero también puede salir muy caro.
Si quieres revisar cómo encaja todo esto en tu negocio y salir con un criterio claro sobre riesgos, cumplimiento y estrategia, en mi consultoría 1:1 saldrás con un plan de acción concreto.

