Anuncios

GitHub, la plataforma de desarrollo propiedad de Microsoft, ha anunciado un cambio sustancial en la política de uso de datos de su herramienta de inteligencia artificial, Copilot.

A partir del 24 de abril de 2026, las interacciones de los desarrolladores con el asistente de código, incluyendo fragmentos escritos, preguntas en el chat y decisiones de aceptación, podrán ser utilizadas para entrenar y mejorar los futuros modelos de IA de la compañía.

Este cambio afecta incluso al código procedente de repositorios privados, lo que ha encendido las alarmas sobre la privacidad y la propiedad intelectual.

Según un anuncio oficial en el blog de GitHub, la nueva política se aplicará de forma predeterminada. Esto significa que, salvo que el usuario actúe manualmente, su actividad con Copilot se convertirá en material de entrenamiento.

Para desarrolladores individuales y equipos que trabajan con código sensible o propietario, entender y modificar esta configuración se ha vuelto una tarea urgente.

Qué datos recopilará GitHub y por qué es un problema

La recopilación no se limita al código público. GitHub ha especificado que los “datos de interacción” incluyen:

  • Fragmentos de código que escribas o que aceptes de las sugerencias de Copilot.
  • Preguntas y solicitudes que realices en la función de chat (por ejemplo, “debug este bucle” o “refactoriza esta clase”).
  • Los patrones de aceptación o rechazo de las sugerencias automáticas.

Esta información, tomada en conjunto, puede revelar no sólo soluciones técnicas específicas, sino también los patrones de pensamiento, la estructura de proyectos privados y posibles vulnerabilidades de un equipo.

Para empresas sujetas a regulaciones de cumplimiento normativo o que manejan secretos comerciales, la posibilidad de que este flujo de trabajo alimente un modelo de IA externo plantea riesgos legales y de seguridad.

Anuncios


La mayoría de los usuarios no recibirán una notificación directa sobre este cambio. La carga recae en el individuo o en el administrador de la organización para modificar la configuración a tiempo.

Pasos para optar por no participar y proteger tu código

La opción para excluir tus datos del entrenamiento de la IA existe, pero no está activada por defecto y debe configurarse antes de la fecha límite. El proceso es sencillo y toma sólo un par de minutos:

  • Accede a tu cuenta de GitHub y dirígete a la página específica de ajustes de Copilot: https://github.com/settings/copilot.
  • Desplázate hacia la sección titulada “GitHub Copilot interaction data for AI training” (Datos de interacción de GitHub Copilot para el entrenamiento de IA).
  • Encontrarás una casilla de verificación que probablemente esté marcada. Debes desmarcarla para indicar que no permites que tus interacciones se usen para el entrenamiento de modelos.Guarda los cambios.

Es crucial realizar este paso tanto en tu cuenta personal como, si eres administrador, en la configuración de cualquier organización que gestiones. o.

Optar por no participar a partir del 24 de abril bloquea la recopilación futura, pero tiene limitaciones importantes sobre lo ya compartido. Como advierte el autor del artículo fuente, los datos históricos de interacción previos a la desactivación pueden haber sido ya ingeridos por los sistemas de GitHub y su exclusión total no está garantizada.

Incluso si los datos brutos se eliminan, los patrones aprendidos por el modelo durante su entrenamiento podrían persistir en los “pesos” de la IA, una huella digital difícil de borrar. Esto subraya la urgencia de actuar antes de que la nueva política entre en vigor, para minimizar la exposición desde el primer momento.

Para las empresas, esto no es sólo un tema de privacidad, sino de gobierno y cumplimiento. Auditorías internas o regulaciones sectoriales podrían requerir un trazado detallado de cómo y dónde se utiliza el código propietario. Permitir su uso en el entrenamiento de una IA de un tercero podría contravenir políticas internas o acuerdos de confidencialidad con clientes.