Anuncios

El 25 de marzo de 2026GitHub actualizó la política de uso de datos de su herramienta de asistencia de código, Copilot.

El cambio principal establece que, por defecto, los datos de interacción de todos los usuarios, tanto de planes gratuitos como de pago, se utilizarán para entrenar y mejorar los modelos de inteligencia artificial de la plataforma.

La medida, que ya está en vigor, incluye automáticamente a los usuarios existentes y nuevos, aunque estos pueden optar por no participar en la configuración de su cuenta.

GitHub Copilot se ha consolidado como uno de los asistentes de código impulsados por IA más populares entre los desarrolladores, integrado directamente en entornos de desarrollo como Visual Studio Code. Funciona sugiriendo líneas o bloques de código completos en tiempo real, aprendiendo de un vasto corpus de código público.

Hasta ahora, las políticas sobre cómo se utilizaban los datos de la interacción directa de los usuarios con la herramienta eran más restrictivas o no estaban completamente definidas para el entrenamiento de futuros modelos.

La actualización anunciada en The GitHub Blog introduce cambios específicos en los términos de uso:

Anuncios


  • Opt-in automático: La nueva política se aplica de manera predeterminada a todos los usuarios de GitHub Copilot. Esto significa que, a menos que el usuario actúe, sus datos de interacción, que incluyen cómo se usan, aceptan o rechazan las sugerencias, se incorporarán al conjunto de datos de entrenamiento para modelos de IA.
  • Cobertura universal: El cambio afecta por igual a las suscripciones gratuitas y de pago, unificando la política para toda la base de usuarios.
  • Mecanismo de opt-out: Los desarrolladores que prefieran excluir sus datos deben desactivar manualmente la opción en la configuración de privacidad de su cuenta de GitHub.

El impacto inmediato recae sobre millones de desarrolladores que utilizan la herramienta a diario. Para GitHub, esta decisión significa acceder a un flujo continuo y valioso de datos de entrenamiento de alta calidad, proveniente del uso en escenarios reales, lo que teóricamente podría mejorar la precisión y la utilidad de Copilot.

Sin embargo, la medida ha generado un debate inmediato en la comunidad. Mientras algunos argumentan que es un intercambio justo para mejorar una herramienta que usan gratuitamente, otros expresan preocupación por la privacidad y la propiedad intelectual, cuestionando si fragmentos de código propietario podrían, de manera indirecta, influir en las sugerencias futuras de la IA.

“Esta política se alinea con nuestro compromiso de mejorar continuamente GitHub Copilot para todos los desarrolladores”, se lee en la comunicación oficial de la compañía. No obstante, la publicación no detalla qué aspectos específicos de la “interacción” se recopilan ni durante cuánto tiempo se retienen.

El movimiento de GitHub refleja una tendencia más amplia en la industria de la inteligencia artificial: utilizar los datos de uso real de los productos para refinar los modelos de manera iterativa.

Esta práctica, aunque común en servicios gratuitos, marca un punto de inflexión al aplicarse a una herramienta profesional de desarrollo integrada en flujos de trabajo críticos.