
Hoy toca ponerse el sombrero de analista porque ha llegado a mi bandeja de entrada uno de esos correos que cambian las reglas del juego. GitHub acaba de anunciar que, a partir del 24 de abril, empezará a usar tu código para entrenar sus modelos de IA por defecto.

Si eres usuario de Copilot Free, Pro o Pro+, esto te interesa (y mucho). Vamos a desglosar qué significa esto, los riesgos ocultos y por qué este movimiento nos recuerda a los tropiezos de gigantes como Adobe.
Tabla de contenidos
El correo es claro, pero cargado de matices técnicos. GitHub empezará a utilizar «datos de interacción», lo que incluye:
- Inputs: Tus prompts y comentarios.
- Outputs: El código que la IA te sugiere.
- Snippets de código: Fragmentos de tu archivo actual.
- Contexto asociado: Archivos abiertos, bibliotecas que usas y la estructura de tu proyecto.
La «letra pequeña» de la segmentación
GitHub está trazando una línea divisoria muy clara:
- Los «sacrificados»: Usuarios individuales (Free, Pro, Pro+). Tus datos son ahora el combustible del modelo.
- Los «protegidos»: Copilot Business y Enterprise. Si pagas como empresa, tus datos siguen siendo sagrados.
- El escudo organizacional: Si trabajas en un repositorio de una organización de pago, aunque tu cuenta sea personal, esos datos no se usarán.
Pros y Contras: La balanza de la innovación vs. la privacidad
| Pros | Contras |
| Mejor precisión: GitHub afirma que las tasas de aceptación de código han subido gracias a entrenar con datos reales de Microsoft. | Riesgo de filtración: Existe la posibilidad teórica de que la IA sugiera a otros usuarios fragmentos de tu lógica de negocio única. |
| Soporte multilingüe: El modelo entenderá mejor frameworks modernos y lenguajes menos comunes. | Carga de configuración: El «Opt-out» obliga al usuario a actuar. Si no te enteras del correo, ya estás dentro. |
| Evolución del producto: Las sugerencias serán más contextuales y menos «genéricas». | Debate ético: ¿Es justo que tras pagar una suscripción Pro, tus datos también sean el producto? |
El fantasma de Adobe y la crisis de confianza
Este movimiento de GitHub no ocurre en el vacío. Hace poco, Adobe enfrentó una reacción violenta de la comunidad creativa cuando actualizó sus términos de servicio de Creative Cloud. La redacción ambigua sugería que Adobe podía acceder al contenido de los usuarios para entrenar su IA, Adobe Firefly.
¿El resultado? Una migración masiva a herramientas como Affinity o Procreate y una crisis de reputación que obligó a Adobe a pedir disculpas y aclarar sus términos.
¿Por qué es peligroso? Cuando una herramienta profesional que vive de la propiedad intelectual (ya sea un diseño en Photoshop o una arquitectura de microservicios en VS Code) decide que «por defecto» puede mirar tu trabajo, se rompe el contrato de confianza. Para un desarrollador, su código es su ventaja competitiva.
¿Qué puedes hacer tú?
Si eres un desarrollador independiente o freelancer, tienes dos caminos:
- Aceptar el trato: Si no manejas información sensible o secreta y prefieres que Copilot sea cada vez más inteligente, no tienes que hacer nada.
- El Opt-Out (Recomendado): Si trabajas en proyectos con NDAs o lógica propietaria, ve a la configuración de tu cuenta de GitHub antes del 24 de abril y desactiva la opción de «permitir que GitHub use mis datos para mejorar el producto».
Tutorial Rápido: Cómo proteger tu privacidad en GitHub Copilot (Paso a Paso)
Si has decidido que prefieres mantener tu código y contexto de trabajo fuera del entrenamiento de los modelos de IA de Microsoft/GitHub, sigue estos pasos sencillos antes del 24 de abril. Solo te llevará un minuto.
Paso 1: Accede a tu Configuración
Inicia sesión en tu cuenta de GitHub en el navegador. En la esquina superior derecha, haz clic en tu foto de perfil y selecciona «Settings» (Configuración) en el menú desplegable.
Paso 2: Localiza la sección de Copilot
En la barra de menú lateral izquierda, desplázate hacia abajo hasta encontrar la sección de «Code, planning, and automation» (Código, planificación y automatización) y haz clic en «Copilot».
Paso 3: Desactiva el uso de datos
Una vez dentro de la configuración de Copilot, busca la sección titulada «Keyboard shortcuts and data usage» (Atajos de teclado y uso de datos). Allí verás una casilla de verificación crucial.
Debes DESMARCAR (desactivar) la casilla que dice:
«Allow GitHub to use my interaction data (inputs, outputs, code snippets, and context) to improve product performance and train AI models.» (Permitir que GitHub utilice mis datos de interacción… para mejorar el rendimiento del producto y entrenar modelos de IA).
Paso 4: ¡Guarda los cambios!
No olvides hacer clic en el botón «Save» (Guardar) que aparece justo debajo de la casilla.
¡Listo! Una vez desmarcada y guardada la configuración, GitHub dejará de utilizar tu telemetría y fragmentos de código para entrenar sus modelos públicos. Recuerda que esto aplica para tus repositorios personales; si trabajas en una organización de pago, sus políticas internas ya te protegen por defecto.
Mi opinión como divulgador
La IA necesita datos para mejorar, eso es una realidad técnica. Sin embargo, la tendencia de las Big Tech de activar estas funciones por defecto (opt-out en lugar de opt-in) es una práctica agresiva que pone la responsabilidad en el usuario y no en la transparencia de la empresa.
¿Qué opinas tú? ¿Crees que la mejora en las sugerencias vale el riesgo de compartir tu contexto de trabajo o vas a desactivar esta opción de inmediato?
José Carrillo
Programador y desarrollador de software, tengo más de 10 años de experiencia y actualmente soy Tech Leader, creador de contenido y divulgador tecnológico.
- Publicado
- 26 de marzo de 2026
- Tiempo de lectura
- 5 minutos
- ID del artículo
- 1696
- Última actualización
- 26 de marzo de 2026
- Categorías
- Etiquetas
- Trending
- Estadísticas
- Sincronizando...Cargando...Cargando...


