CEO responde con 250 millones por hacer caso a ChatGPT (y esto puedes aprender)
El CEO de Krafton, la empresa detrás de PUBG, tenía un problema de 250 millones de dólares. En lugar de consultar a sus abogados, abrió ChatGPT. Lo que pasó después ya es jurisprudencia sobre inteligencia artificial y asesoramiento legal.
El caso Krafton vs Unknown Worlds: 500 millones y una cláusula que lo cambió todo
En 2021, Krafton compró Unknown Worlds Entertainment, el estudio indie de San Francisco conocido por Subnautica, por 500 millones de dólares. El contrato incluía una cláusula de earnout: si Subnautica 2 se vendía bien, Krafton tendría que pagar hasta 250 millones adicionales a los fundadores.
Un earnout es un bonus por rendimiento en compraventas de empresas. Si no conoces esta cláusula y te mueves en el mundo del emprendimiento, te la explico en este vídeo.
El contrato protegía a los fundadores: no podían ser despedidos sin causa justificada y mantendrían el control operativo del estudio. Todo parecía razonable, hasta que las proyecciones internas mostraron que Subnautica 2 iba a ser un exitazo. Las estimaciones iban desde 191 hasta 242 millones de dólares en pagos de earnout.
El CEO de Krafton, Changhan Kim, vio esos números y consideró que había firmado un contrato desastroso. En sus propias palabras, según la sentencia, lo veía como “un fracaso catastrófico desde el punto de vista empresarial”.
Proyecto X: cuando ChatGPT se convierte en tu abogado
María Park, directora de desarrollo corporativo de Krafton, le advirtió al CEO que despedir a los fundadores sin causa justificada no eliminaría la obligación de earnout y expondría a la empresa a riesgo de demanda. Kim ignoró a su equipo legal y abrió ChatGPT.
Le preguntó cómo evitar pagar los 250 millones. ChatGPT, al principio, le dijo la verdad: sería bastante difícil cancelar un acuerdo de earnout. Pero Kim insistió, reformuló y presionó al chatbot. ChatGPT cedió y le diseñó una estrategia completa de takeover corporativo que Kim bautizó como el Proyecto X.
El plan incluía:
- Formar un equipo interno para renegociar o forzar el takeover del estudio
- Bloquear los derechos de publicación en Steam y consolas
- Tomar el control del código fuente
- Enmarcar el conflicto como una cuestión de calidad del juego (no de dinero)
- Preparar un comunicado público para ganar a la comunidad gaming
Kim siguió la estrategia de ChatGPT párrafo por párrafo. Bloquearon los derechos de publicación, despidieron a los tres cofundadores y publicaron el comunicado que había redactado ChatGPT, que alarmó a toda la comunidad de jugadores en lugar de tranquilizarla.
La sentencia demoledora del tribunal de Delaware
El caso llegó al tribunal de Delaware, uno de los tribunales mercantiles más reconocidos en Estados Unidos. La jueza Lori Will dictó sentencia el 16 de marzo de 2026. Fue demoledora:
- Krafton incumplió el contrato al despedir a los fundadores sin causa justificada y tomar control operativo indebido del estudio.
- Los fundadores deben ser restaurados inmediatamente con plena autoridad operativa.
- El periodo de earnout se extiende hasta septiembre de 2026 para compensar la disrupción causada por Krafton.
La jueza dejó frases que van a quedar para la historia legal internacional. Cito textualmente: el CEO de Krafton “consultó un chatbot de inteligencia artificial para idear una estrategia de takeover corporativo y siguió la mayoría de recomendaciones de ChatGPT”.
Por qué ChatGPT no puede ser tu abogado: 5 razones
1. No tiene deber fiduciario
Un abogado tiene la obligación legal de proteger a su cliente. ChatGPT optimiza para satisfacer al usuario. Cuando Kim rechazó la primera respuesta, un abogado le habría insistido en la realidad legal. ChatGPT le generó un plan alternativo.
2. No hay secreto profesional
Las comunicaciones con un abogado están protegidas legalmente y no se pueden usar en tu contra en un juicio. Las conversaciones con ChatGPT sí. En este caso, el tribunal de Delaware las usó exactamente para demostrar que el plan de Krafton fue una maquinación diseñada con un chatbot.
3. La sycophancy: te da la razón aunque estés equivocado
La IA está entrenada para satisfacer al usuario, lo que los investigadores de Stanford llaman sycophancy. Kim rechazó la respuesta honesta y ChatGPT cedió a sus presiones. Un buen abogado te dice lo que necesitas oír, no lo que quieres oír. Te explico este fenómeno en detalle aquí.
4. No leyó el contrato
ChatGPT generó una estrategia genérica sin haber analizado las 500 páginas del acuerdo de adquisición. Un abogado habría revisado cada cláusula, cada definición y cada condición.
5. Más de 300 casos de alucinaciones legales en tribunales
Solo en 2025, al menos 200 casos documentados. Un abogado de California presentó un escrito donde 21 de 23 citas jurisprudenciales eran inventadas por ChatGPT. Nippon Life demandó a OpenAI por ejercicio ilegal de la abogacía, la primera demanda de este tipo. Y en Nueva York ya hay un proyecto de ley para prohibir que los chatbots den asesoramiento legal.
Qué significa esto para ti como empresario
Si el CEO de una empresa cotizada con acceso a los mejores bufetes del mundo prefirió ChatGPT antes que a sus propios abogados, la pregunta es obvia: ¿qué está haciendo el emprendedor medio con su contrato de sociedad, sus condiciones generales o su política de privacidad?
La IA es una herramienta extraordinaria. La uso todos los días. Pero especialmente en el sector legal, la IA no sustituye el juicio profesional, la responsabilidad deontológica ni la relación de confianza entre abogado y cliente. Expertise + IA = ventaja enorme. IA sin expertise = riesgo enorme.
El AI Act europeo podría clasificar los sistemas de IA usados para asesoramiento legal como alto riesgo bajo el Anexo 3. La dirección está clara: la IA puede ser tu herramienta, pero tu abogado sigue siendo tu abogado.
Si tienes un caso legal, un contrato que revisar o una decisión empresarial importante, pregúntale a ChatGPT, pero luego habla con un profesional. En mi consultoría 1:1 saldrás con un plan de acción concreto para tu situación.


