GitHub usara tu codigo para entrenar IA de Microsoft (y ya esta activado)
A partir del 24 de abril de 2026, GitHub va a usar tus inputs y outputs de Copilot para entrenar modelos de inteligencia artificial de Microsoft. No hablamos del codigo publico de tu repositorio. Hablamos de los fragmentos de codigo privado que Copilot procesa mientras trabajas, tus prompts, tus sugerencias aceptadas, la estructura de tus repositorios. Y ya esta activado por defecto.
Que ha cambiado en los terminos de GitHub
El 25 de marzo de 2026, GitHub publico una actualizacion de sus terminos de servicio y de su politica de privacidad. Los nuevos terminos dicen que, salvo que hagas opt-out, le concedes a GitHub y a sus afiliados (incluida Microsoft) una licencia para recopilar y usar tus inputs y outputs de Copilot para desarrollar, entrenar y mejorar modelos de IA.
Esto afecta a usuarios de Copilot Free, Copilot Pro y Pro Plus. Es decir, a la mayoria de desarrolladores individuales del mundo. Los planes Business y Enterprise quedan excluidos. Los estudiantes y profesores tambien.
La trampa del “at rest”: que significa realmente
GitHub ha sido cuidadoso con la redaccion. Dicen que no usan el contenido de tus repositorios privados “at rest” para entrenar. Es decir, no entran a tu repositorio a copiar archivos. Pero el propio Mario Rodriguez, chief product officer de GitHub, lo ha explicado asi: “Usamos la expresion at rest deliberadamente porque Copilot procesa codigo de repositorios privados en tiempo real.”
Ahi esta la clave. No copian tus archivos, pero todo lo que pasa por Copilot mientras trabajas (fragmentos de codigo, contexto, prompts, sugerencias) si se usa para entrenar. La distincion legal entre “at rest” y “en transito” es la que permite a GitHub decir que respeta tu privacidad mientras usa tu trabajo para entrenar sus modelos.
El problema legal: RGPD, propiedad intelectual y EU AI Act
Hay tres frentes legales abiertos que GitHub va a tener que enfrentar, especialmente en Europa:
- RGPD: el consentimiento por defecto (opt-out) no cumple con el estandar europeo de consentimiento informado. El RGPD exige que el consentimiento sea activo, especifico e inequivoco. Activar algo por defecto y esperar que el usuario lo desactive no es consentimiento valido.
- Propiedad intelectual: si tu codigo esta bajo licencia GPL u otra licencia restrictiva, GitHub esta usando tu trabajo para entrenar un modelo comercial sin respetar los terminos de tu licencia. Esto ya fue objeto de demandas colectivas en 2022.
- EU AI Act: el Reglamento Europeo de IA, que entra en vigor en agosto de 2026, obliga a los proveedores de modelos de proposito general a documentar que datos de entrenamiento han usado. GitHub va a tener que explicar que codigo ha usado y bajo que base legal.
GitLab vs GitHub: la comparativa que duele
GitLab ha tomado el camino opuesto: opt-in por defecto, con documentacion clara de que datos se usan y para que. No es que GitLab sea perfecto, pero la diferencia de enfoque es evidente. Mientras GitHub activa el entrenamiento por defecto y espera que te enteres, GitLab te pregunta antes.
Como desactivarlo en 30 segundos
Ve a github.com, entra en Settings, luego Copilot, y desactiva la opcion “Allow GitHub to use my Copilot data for product improvements”. Es asi de rapido. Si no lo haces antes del 24 de abril, tu codigo empieza a entrenar modelos de Microsoft.
El patron que se repite
Esto no es nuevo. Es el mismo patron de siempre: una empresa grande cambia sus terminos de servicio, activa algo por defecto, y cuenta con que la mayoria de usuarios no lo van a leer. Paso con Facebook, paso con LinkedIn, paso con Adobe. Y ahora pasa con GitHub.
La diferencia es que esta vez no son tus fotos ni tus posts. Es tu codigo. Tu propiedad intelectual. Tu trabajo.
Si eres desarrollador o tienes un equipo tecnico y necesitas revisar los riesgos legales de las herramientas de IA que usais, reserva una consultoria y saldras con un plan de accion claro.


