Anthropic cambia las reglas: recorta rendimiento y sube precios a sus usuarios de Claude

Miguel Marín Pascual — SAPIENSDATAAI
Anthropic cambia las reglas: recorta rendimiento y sube precios a sus usuarios de Claude
anthropic claudedegradacion claude codeprecios claude enterprisemodelos IA costeclaude opus rendimientobarra libre IAproveedor IA preciosinteligencia artificial empresasautomatizacion IA Espanaapi claude precio

Anthropic, la empresa fundada por exempleados de OpenAI con la promesa de hacer la IA más segura y alineada con las personas, está recibiendo críticas crecientes de desarrolladores que documentan una degradación notable en el rendimiento de sus modelos y un aumento simultáneo de precios. Lo que empezó como rumores en foros de desarrollo se ha convertido en un análisis con datos reales: 6.600 sesiones de Claude Code y 235.000 llamadas a herramientas examinadas por Stella Laurenzo, ejecutiva de AMD, que cuantifica los cambios con cifras difíciles de ignorar.

El análisis que puso cifras a lo que muchos intuían

Stella Laurenzo, directiva en AMD con experiencia en infraestructura de IA, publicó un análisis técnico exhaustivo basado en datos reales de uso de Claude Code. Los resultados son concretos: el número de archivos leídos por archivo editado cayó de 6,6 a 2,0, lo que implica que el modelo trabaja con mucho menos contexto antes de hacer cambios en el código. Las ediciones realizadas sin haber leído el archivo previamente pasaron del 6,2% al 33,7%. La visibilidad del razonamiento interno del modelo se redujo de 2.200 a 600 caracteres. Y los costes, en el período analizado, se multiplicaron por 122.

Estos números sugieren un modelo que hace más con menos información previa, lo que puede traducirse en más errores, más iteraciones necesarias y, paradójicamente, más gasto para el usuario final. Anthropic respondió a través de Boris Cherny, quien negó que hubiera una degradación intencional del modelo, pero confirmó que sí se habían realizado cambios de producto. La explicación oficial: una crisis de capacidad computacional que obligó a ajustes en los límites de sesión durante horas pico y en el nivel de esfuerzo del razonamiento.

Los cambios concretos que Anthropic implementó sin avisar

La cronología de modificaciones que los desarrolladores han documentado es reveladora. El 9 de febrero de 2026, Anthropic activó por defecto el razonamiento adaptativo en Claude Opus 4.6. El 3 de marzo, el nivel de esfuerzo del modelo pasó de alto a medio, concretamente del nivel máximo al 85. Además, redujo el tiempo de caché de prompts de una hora a cinco minutos, lo que obliga a los sistemas a reenviar contexto completo con mucha más frecuencia, disparando el consumo de tokens y por tanto el coste.

Ninguno de estos cambios fue comunicado de forma proactiva a los usuarios. Los desarrolladores que detectaron la degradación en sus flujos de trabajo tuvieron que rastrear los cambios por su cuenta, comparando benchmarks propios antes y después de fechas concretas. Este patrón de modificaciones silenciosas es una de las principales fuentes de frustración: no se trata solo de que el servicio cambie, sino de que lo hace sin transparencia hacia los usuarios que dependen de él para su trabajo diario.

El giro en los precios Enterprise que puede triplicar la factura

Paralelamente a los cambios técnicos, Anthropic ha modificado su modelo de precios para clientes Enterprise. El esquema anterior era simple: 200 dólares mensuales en una suscripción plana. El nuevo esquema combina una tarifa base de 20 dólares por usuario con consumo estándar de API según uso real. Para equipos que utilizan Claude de forma intensiva, como los equipos de desarrollo que tienen abiertos contextos largos todo el día, la estimación es que la factura puede duplicarse o triplicarse. A esto se suma la eliminación de los descuentos previos del 10 al 15% que tenían algunos contratos.

El cambio no es trivial para empresas que han construido flujos de trabajo enteros sobre Claude. Migrar a otro modelo de lenguaje no es cuestión de cambiar una variable de configuración: implica reentrenar prompts, verificar calidad en los casos de uso propios, adaptar integraciones y asumir un período de transición con riesgo de regresiones. El coste de cambio es real, y Anthropic lo sabe.

Un patrón que se repite en todo el sector

Lo más significativo del caso de Anthropic no es que sea un caso aislado, sino que es la confirmación de una tendencia. OpenAI ha implementado restricciones similares en sus planes de API. GitHub Copilot ajustó los límites de uso en sus planes Business. Windsurf y Replit han introducido topes en funciones que antes eran ilimitadas. El mensaje que llega desde todos los proveedores de IA es el mismo: el período de crecimiento a toda costa, con precios subsidiados para capturar cuota de mercado, está llegando a su fin.

Durante 2024 y parte de 2025, los proveedores de IA ofrecieron precios muy por debajo del coste real de computación para crecer rápido y crear dependencia. Ahora que los usuarios están integrados en sus flujos de trabajo, los ajustes de precio son más viables sin riesgo de perder la base instalada de un golpe. El caso de Anthropic es especialmente llamativo porque la empresa había construido su reputación sobre la confianza y la transparencia como diferenciadores frente a OpenAI. Que ahora sea señalada por hacer exactamente lo contrario tiene un impacto simbólico que va más allá de los números.

Qué significa esto para empresas que usan IA en producción

Para cualquier empresa que tenga procesos de negocio dependientes de modelos de lenguaje de terceros, este episodio es una advertencia concreta. La dependencia de un único proveedor de IA es un riesgo operativo y financiero real. Los contratos de API no garantizan ni la estabilidad de rendimiento ni la fijación de precios a largo plazo. Un modelo que hoy cuesta X y rinde Y puede, en cuestión de semanas, costar 3X y rendir 0,5Y sin que el contrato ofrezca protección.

Las empresas con mayor madurez en adopción de IA están respondiendo con estrategias de diversificación: múltiples proveedores para distintas tareas, modelos open source desplegados en infraestructura propia para los casos de uso más críticos, y contratos con cláusulas de rendimiento mínimo garantizado. El episodio de Anthropic acelera una conversación que muchas organizaciones postergaban: ¿cuánto control real tenemos sobre la IA que utilizamos en producción? ¿Qué pasa con nuestras operaciones si mañana un proveedor cambia sus condiciones? La respuesta a esas preguntas define la diferencia entre una adopción de IA robusta y una dependencia frágil.

Solicitar diagnóstico gratuito
Asesor VirtualAsesor Virtual 24h