Evita que GitHub Copilot use tu código para entrenar IA: guía rápida y sencilla

Si eres usuario de la versión gratuita, Pro o Pro+, tu código y tus interacciones dentro de la plataforma serán utilizados de manera automática

Guardar
GitHub Copilot - IA - desarrolladores - tecnología - 29 de marzo
La actualización de política de GitHub no solo abarca el código final que aceptas. (Composición Infobae: fossa.com / Europa Press)

A partir del 24 de abril de 2026, GitHub Copilot cambiará sus reglas de privacidad: si eres usuario de la versión gratuita, Pro o Pro+, tu código y tus interacciones dentro de la plataforma serán utilizados de manera automática para entrenar modelos de inteligencia artificial, salvo que decidas lo contrario.

Este cambio afecta a desarrolladores en todo el mundo y convierte cada fragmento de código, nombre de archivo o comentario en una fuente de aprendizaje para la IA. Si quieres proteger tu privacidad y no contribuir con tus datos al entrenamiento de Copilot, existe un proceso sencillo para desactivar esta opción en unos minutos.

Cómo evitar que GitHub Copilot use tu código para entrenar IA

GitHub ha implementado el entrenamiento por defecto en Copilot para la mayoría de sus usuarios individuales, tanto en la versión gratuita como en las de pago personalizadas.

GitHub Copilot es un asistente de programación basado en IA desarrollado por GitHub en colaboración con OpenAI.  


GITHUB
GitHub Copilot es un asistente de programación basado en IA desarrollado por GitHub en colaboración con OpenAI. GITHUB

Esto implica que todos los datos generados a partir de tu actividad —incluidos los prompts, sugerencias aceptadas, la estructura de tus carpetas y el contexto que rodea el cursor— serán recopilados y utilizados para mejorar los modelos de IA, a menos que expreses tu negativa.

Para desactivar el uso de tus datos, solo necesitas seguir estos pasos desde la propia configuración de Copilot:

  1. Ingresa a GitHub.com e inicia sesión con tus credenciales.
  2. Accede al menú de Configuración (“Settings”) haciendo clic en tu foto de perfil, ubicada en la esquina superior derecha.
  3. En el panel lateral izquierdo, desplázate hasta la sección “Code, planning, and automation” y selecciona “Copilot”.
  4. Dirígete hacia abajo hasta encontrar el apartado “Privacy” (Privacidad).
  5. Busca la opción “Allow GitHub to use my data for AI model training” (Permitir que GitHub use mis datos para el entrenamiento de modelos de IA).
  6. Cambia el valor a “Disabled” (Desactivado).

Si ya habías denegado permisos de recolección de datos en el pasado, GitHub mantendrá tu decisión y no activará el entrenamiento con tus aportes.

La imagen muestra la interfaz de un editor de código con el complemento GitHub Copilot activado en modo de agente. Europa Press
La imagen muestra la interfaz de un editor de código con el complemento GitHub Copilot activado en modo de agente. Europa Press

Qué datos utiliza GitHub Copilot y quiénes están excluidos

La actualización de política de GitHub no solo abarca el código final que aceptas, sino también el contexto en el que escribes: los nombres de archivo, los patrones de navegación y los comentarios quedan bajo el radar de la IA. Todo esto se suma para alimentar el proceso de aprendizaje automático y, según la empresa, incrementar la precisión y utilidad de Copilot.

Sin embargo, existe una excepción importante: los usuarios de Copilot Business y Enterprise no se ven afectados por este cambio. GitHub mantiene la privacidad de los datos empresariales y no los utiliza para entrenar modelos globales.

Este detalle resulta especialmente relevante para empresas que gestionan algoritmos propietarios o lógica de negocio confidencial, así como para equipos de desarrollo que requieren un entorno de mayor seguridad.

GitHub Copilot - IA - desarrolladores - tecnología - 29 de marzo
En lugar de saltar constantemente a Google o a foros para buscar cómo hacer algo, el desarrollador interactúa con Copilot en tiempo real para acelerar su trabajo. (Imagen ilustrativa Infobae)

Por qué GitHub recopila tus datos y cómo impacta en la comunidad

El objetivo de GitHub con esta estrategia es mejorar la calidad y alcance de Copilot. La compañía busca replicar, a mayor escala, el éxito obtenido al entrenar modelos con datos internos de Microsoft, ampliando la fuente de aprendizaje a situaciones reales de usuarios de todo el mundo.

De esta manera, la IA puede aprender a identificar errores antes de que el código llegue a producción y a comprender flujos de trabajo complejos que no aparecen en ejemplos teóricos.

GitHub está comunicando este cambio de manera proactiva: los usuarios recibirán notificaciones por correo electrónico y encontrarán alertas visibles en la plataforma.

La decisión de mantener o no el entrenamiento con datos propios está en manos del usuario, pero la opción por defecto es la recopilación activa, lo que convierte a los desarrolladores en “profesores gratuitos” de una inteligencia artificial que, en muchos casos, puede llegar a automatizar parte de su propio trabajo.

El icono oficial de GitHub Copilot es una representación minimalista y abstracta del rostro de un "piloto" robot o una inteligencia artificial.

MICROSOFT
El icono oficial de GitHub Copilot es una representación minimalista y abstracta del rostro de un "piloto" robot o una inteligencia artificial. MICROSOFT

Diferencias entre Copilot personal y empresarial en la nueva política de datos

El cambio de política marca una clara distinción entre las versiones individuales y las empresariales de Copilot. Mientras que las ediciones Business y Enterprise —de mayor costo— garantizan la privacidad de los datos y evitan su uso para entrenar modelos de IA, las versiones personales y gratuitas permiten que GitHub recopile material para sus algoritmos, salvo que el usuario lo desactive manualmente.

Esta segmentación responde, en parte, a la sensibilidad de la información que se maneja en entornos corporativos y a la necesidad de proteger propiedad intelectual exclusiva. Para la mayoría de los desarrolladores que trabajan en proyectos personales, la exposición de datos resulta menos problemática, aunque la decisión final depende siempre del usuario.

La implementación de este sistema transforma la relación entre programadores y plataformas de IA, haciendo imprescindible revisar las opciones de privacidad y decidir de manera activa el destino de los propios aportes en GitHub Copilot.