Anthropic degrada Claude en producción: datos reales, costes x122 y el fin de la IA barata

Miguel Marín Pascual
Claude degradado rendimientoAnthropic precios Enterprise 2026nerfing Claude Codecoste IA empresasinteligencia artificial empresas EspañaClaude Code análisisAnthropic vs OpenAI 2026razonamiento adaptativo Claudecostes modelo lenguaje produccióngestión proveedores IA

Anthropic construyó su reputación entre desarrolladores siendo la alternativa "seria" a OpenAI: modelos más potentes, menos ruido corporativo, precios predecibles. Esa imagen acaba de recibir un golpe desde dentro. En abril de 2026, un análisis de 6.600 sesiones reales de Claude Code documenta que el rendimiento del modelo se ha degradado sistemáticamente desde febrero, mientras los precios para clientes Enterprise se han multiplicado hasta triplicarse para los usuarios más intensivos.

Qué ocurrió exactamente: los datos del análisis Laurenzo

El 2 de abril de 2026, Stella Laurenzo, Senior Director del grupo de IA de AMD, publicó en GitHub un análisis exhaustivo sobre el comportamiento de Claude Code entre febrero y marzo de 2026. Los números son difíciles de ignorar: analizó 6.600 sesiones, 235.000 llamadas a herramientas y 18.000 bloques de razonamiento en cuatro proyectos distintos. Sus conclusiones documentan tres degradaciones medibles. Primero, el ratio de archivos leídos por archivo editado cayó de 6,6 a 2,0, lo que significa que el modelo edita con mucha menos información previa, aumentando el riesgo de errores. Segundo, las ediciones "a ciegas" pasaron del 6,2% al 33,7% de las interacciones. Tercero, el razonamiento visible medio bajó de 2.200 a 600 caracteres. El resultado combinado: los costes para algunos usuarios se multiplicaron por 122 en el mismo periodo, al necesitar más iteraciones para conseguir resultados equivalentes.

Los cambios que lo explican: razonamiento adaptativo y límites de sesión

Anthropic no actuó en silencio. El 9 de febrero de 2026 activó por defecto el "razonamiento adaptativo" en Opus 4.6, una función que ajusta dinámicamente el nivel de esfuerzo del modelo según la complejidad percibida de la tarea. El 3 de marzo, el nivel de esfuerzo por defecto bajó de alto a medio, fijándose en el nivel 85 de una escala interna. En marzo también ajustó los límites de sesión durante horas pico. Boris Cherny, responsable de Claude Code en Anthropic, reconoció los cambios en el foro de la comunidad, atribuyéndolos a la tensión en infraestructura provocada por la alta demanda. La empresa describe estas medidas como optimizaciones ante escasez de cómputo, no como recortes deliberados de calidad. Sin embargo, la distinción es difícil de sostener cuando los efectos medidos sobre la experiencia del usuario son los mismos en ambos casos.

El giro en precios Enterprise: de tarifa plana a facturación por uso

Simultáneamente a los cambios técnicos, Anthropic modificó su estructura de precios para clientes Enterprise. La tarifa anterior era de 200 dólares al mes como pago fijo, con descuentos del 10 al 15% sobre el precio estándar de API. El nuevo modelo cobra 20 dólares por usuario al mes más consumo estándar de API, eliminando los descuentos. Para usuarios con uso moderado, el cambio puede ser neutro o incluso favorable. Para los usuarios intensivos, que representan según Anthropic el 7% del total pero concentran la mayor parte del tráfico, la estimación es que los costes se duplican o triplican. David Hsu, CEO de Retool, anunció públicamente que migró su empresa a OpenAI tras varias caídas de servicio. No es el único: plataformas como Windsurf y Replit han implementado cambios similares en sus propios sistemas de crédito, reflejando una presión generalizada en el sector por la insostenibilidad económica de los modelos de acceso ilimitado.

Qué significa para empresas que usan IA en producción

La historia de Anthropic en abril de 2026 no es solo sobre Claude. Es sobre la madurez del mercado de IA. Durante dos años, los laboratorios compitieron por cuota de desarrolladores ofreciendo precios artificialmente bajos y acceso casi ilimitado. Ese ciclo está terminando. Lo que está emergiendo es un mercado donde el coste real del cómputo empieza a repercutirse en el cliente, y donde la diferencia entre precio de catálogo y coste total de operación puede ser de un orden de magnitud. Para cualquier empresa que haya integrado un modelo de lenguaje en un flujo de trabajo productivo, esto tiene implicaciones directas: los contratos firmados a precios de 2024 pueden no reflejar la realidad de 2026. La diversificación de proveedores, el monitoreo continuo del rendimiento y la evaluación periódica del coste por tarea son ahora prácticas de gestión básica, no optativas. El caso de Anthropic es el primero grande, pero no será el último.

Conclusión: el fin de la barra libre en IA empresarial

Anthropic llegó al mercado con una narrativa potente: IA segura, técnicamente superior, sin los excesos comerciales de OpenAI. Esa narrativa le funcionó para atraer a los desarrolladores más exigentes. Lo que ocurre en 2026 es la fricción inevitable entre esa promesa y la economía real de entrenar y servir modelos de frontera. Los datos de Laurenzo no prueban mala fe, pero sí revelan que el rendimiento medible puede cambiar sin que el usuario lo sepa, en paralelo a cambios de precios que aumentan el coste. La lección práctica para directivos y responsables de tecnología es sencilla: tratar los modelos de IA como cualquier otro proveedor crítico. Auditar rendimiento regularmente, negociar SLAs con métricas medibles y mantener siempre una alternativa evaluada. La dependencia de un solo proveedor en un mercado que todavía está definiendo sus reglas es un riesgo operacional que los números de abril de 2026 acaban de volver muy concreto.

Solicitar diagnóstico gratuito
Asesor VirtualAsesor Virtual 24h