La IA ya escribe el 80% del código: productividad alta, riesgo de seguridad sin medir

Miguel Marín Pascual — SAPIENSDATAAI
La IA ya escribe el 80% del código: productividad alta, riesgo de seguridad sin medir
herramientas IA codificacionIA escribe codigoseguridad codigo IAGreg Brockman OpenAICodex OpenAIvulnerabilidades codigo IAOWASP IAVeracode informe seguridadautomatizacion desarrollo softwareinteligencia artificial empresas España

El presidente de OpenAI, Greg Brockman, publicó esta semana una afirmación que ha dado la vuelta al sector tecnológico: las herramientas de codificación con inteligencia artificial ya escriben el 80% del código en el desarrollo de software. A finales de 2024, esa cifra era del 20%. En unos pocos meses, la IA ha pasado de ser un asistente ocasional a convertirse en el motor central de la producción de código en las principales compañías del mundo. La pregunta que ahora se instala en los equipos de ingeniería es si la velocidad con la que crece esa delegación está superando la capacidad real de los desarrolladores para controlar lo que se está construyendo.

El salto de Google, Meta y Anthropic

La declaración de Brockman no es un caso aislado. Google lleva meses consolidando cifras similares: el 75% de su nuevo código ya es generado por herramientas de IA y revisado por ingenieros antes de ser integrado en producción, un porcentaje que en el otoño de 2025 estaba todavía en el 50%. Sundar Pichai, CEO de Google, ha sido explícito al respecto: el código generado por IA requiere aprobación humana antes de desplegarse. No es despliegue automático, pero sí es una dependencia que crece a ritmo acelerado. Por su parte, Meta está empujando en la misma dirección: el 65% de los ingenieros de su organización creativa tiene como objetivo que la IA escriba más del 75% del código que cada uno de ellos integra. Dario Amodei, CEO de Anthropic, fue aún más lejos al proyectar que la IA podría escribir el 90% del código en un plazo de tres a seis meses. Son estimaciones que habrá que contrastar con la realidad, pero marcan con claridad hacia dónde se mueve la industria en términos de automatización del desarrollo.

El problema que nadie quiere calcular: el riesgo de seguridad

Si la productividad del código generado por IA avanza a velocidad de crucero, la seguridad lo hace a un ritmo mucho más discreto. Un informe de Veracode publicado en 2025 analizó código generado por modelos de lenguaje en cuatro lenguajes habituales, Java, JavaScript, Python y C#, y encontró que el 45% de las muestras presentaba vulnerabilidades incluidas en el OWASP Top 10, la lista de referencia de los fallos de seguridad más críticos en aplicaciones web. No es un porcentaje menor. Significa que casi la mitad del código que la IA produce sin supervisión especializada tiene problemas que cualquier auditor de seguridad marcaría desde el primer análisis. Herramientas como Codex, de OpenAI, han pasado en poco tiempo de ser complementos opcionales a ser el núcleo del flujo de trabajo para miles de desarrolladores. La velocidad de adopción es notable, pero la madurez del proceso de revisión en muchas organizaciones no ha crecido al mismo ritmo.

La responsabilidad humana como último cortafuegos

Frente a este panorama, las grandes compañías insisten en el mismo mensaje: el humano sigue siendo el responsable final de lo que se integra en producción. Brockman fue directo al respecto al señalar que OpenAI exige responsabilidad humana para el código que se fusiona en los repositorios. Google lo traduce en procesos concretos de revisión que verifican requisitos, pruebas, arquitectura, seguridad y riesgos de mantenimiento antes de dar el visto bueno. Son marcos que exigen que el ingeniero entienda lo que revisa, aunque no lo haya escrito. Ahí reside la paradoja más interesante del momento actual: la IA escribe el código, pero el desarrollador asume la responsabilidad de lo que no ha escrito. Según una encuesta de Stack Overflow realizada en 2025, solo el 29% de los desarrolladores afirma confiar en las herramientas de IA que usa, aunque el 84% ya las utiliza o tiene previsto hacerlo en el corto plazo. La adopción supera a la confianza, y esa brecha es el espacio donde se acumulan los riesgos.

Implicaciones para las empresas que adoptan IA en sus equipos técnicos

Fuera de las grandes tecnológicas, muchas empresas están comenzando a integrar asistentes de codificación con IA en sus equipos de desarrollo sin contar todavía con procesos de revisión equivalentes a los que aplica Google o Meta. El riesgo no está en que la IA escriba código, sino en que la organización no tenga establecido qué criterios de validación se aplican antes de que ese código llegue a producción. Las empresas que adoptan estas herramientas necesitan revisar tres cosas concretas: si sus procesos de revisión de código están preparados para evaluar volúmenes generados por IA, si sus equipos tienen formación suficiente en seguridad para identificar las vulnerabilidades más comunes, y si la velocidad de entrega que promete la IA está siendo contrarrestada con un nivel equivalente de control de calidad. No hacerlo es asumir que el 45% de fallo reportado por Veracode no llegará a sus sistemas. Es una apuesta que pocas organizaciones pueden permitirse hacer sin datos propios que la respalden.

Conclusión

El salto del 20% al 80% en generación de código por IA en cuestión de meses no es un titular técnico. Es una señal de que la distribución de trabajo entre humanos y máquinas en el desarrollo de software está cambiando más rápido de lo que la mayoría de organizaciones ha podido prepararse para gestionar. Las herramientas avanzan. Los benchmarks mejoran. Pero el código generado sin revisión adecuada sigue fallando las pruebas de seguridad básicas a una tasa que no debería ignorarse. La productividad que ofrece la IA es real. El riesgo que desplaza al desarrollador también lo es.

Solicitar diagnóstico gratuito
Asesor VirtualAsesor Virtual 24h