El sistema Anthropic’s OpenClaw Crackdown protege el procesamiento central de los agentes de IA que lo utilizan en exceso.
El acontecimiento inmediato representa un cambio significativo en el modelo de precios de Anthropic. A partir del 4 de abril, la empresa…Claude ofrece soporte gratuito para herramientas de terceros como OpenClaw.Los usuarios ahora deben pagar un costo adicional, ya sea mediante paquetes de uso con descuentos, o bien cambiando a una clave API separada. Esto no constituye una retirada estratégica, sino más bien una respuesta táctica, necesaria para superar las graves dificultades en la infraestructura.
El catalizador es claro:El uso de herramientas como OpenClaw está ejerciendo una “carga excesiva” sobre nuestros sistemas.Los ejecutivos de Anthropic presentan esto como un problema de gestión de capacidades. Según ellos, sus sistemas no están diseñados para manejar cargas de trabajo intensivas y que requieren muchos recursos. Este momento coincide con un aumento en la demanda, lo que ha sobrecargado los recursos disponibles. Apenas la semana pasada, Anthropic…Se han ajustado los límites de uso para los suscriptores de la versión gratuita, Pro y Max.Especialmente durante las horas pico, como resultado directo de este aumento en la demanda.
Ese aumento en el número de usuarios se debió a un cambio importante en las políticas gubernamentales. La empresa experimentó un aumento significativo en el interés por sus servicios, después de que el Pentágono decidiera incluirla en una lista negra. Paradójicamente, este cambio contribuyó a que los servicios de la empresa ganaran más visibilidad y más usuarios. Este aumento en el número de usuarios, junto con la popularidad de agentes de IA como OpenClaw, ha creado una situación ideal para el uso de capacidades de procesamiento de datos. Como comentó un ejecutivo de Anthropic, la realidad es que los usuarios utilizan la capacidad de procesamiento de datos en cantidades nunca antes visto.
Esta medida es una forma de defensa para proteger la calidad del servicio ofrecido. Al obligar a los usuarios a pagar más o utilizar claves de API, Anthropic puede gestionar mejor sus recursos computacionales limitados, dar prioridad a los clientes que pagan y asegurar que sus propios productos y plataforma para desarrolladores se mantengan estables. Se trata de una respuesta clásica ante una carga repentina e insostenible.
Los detalles técnicos: cómo funcionó el ataque y por qué resultó tan costoso.
La configuración técnica era una solución inteligente, pero insostenible. Los usuarios de OpenClaw podían conectar sus dispositivos…Suscripción de Claude Pro o MaxEstos herramientas utilizan tecnologías de terceros, como OpenCode. Estas herramientas capturan el token de OAuth del usuario y falsifican el cliente oficial de Claude Code, enviando encabezados e identidades idénticos. Para los servidores de Anthropic, el tráfico parecía provenir de la interfaz de línea de comandos autorizada, lo que permitía a los usuarios evitar los costos asociados a las API.
La presión económica era enorme. No se trataba simplemente de un trabajo de programación simple; se trataba de convertir una suscripción de tarifa fija en algo barato para la automatización de procesos complejos. Las pruebas indican que el precio de venta era extremadamente bajo. Un informe señaló que los usuarios podían sufrir daños financieros debido a esto.50,000 tokens para decir “hola”.Para una IA, se trata de algo que supera con creces el uso típico de dichas herramientas. En general, una pregunta sencilla como “¿Qué modelo estás utilizando?” podría resultar en…9,600 a más de 10,000 tokens de respuesta rápida.Esto no es un error de facturación, sino una falla en el diseño del sistema: la arquitectura de OpenClaw activa de 4 a 5 llamadas a API independientes en segundo plano, por cada mensaje enviado. Además, reenvía todo el historial de chat en cada ronda. Por defecto, el modelo principal se utiliza para realizar tareas en segundo plano.
En resumen, Anthropic estaba financiando a un segmento de usuarios que tenía un alto valor, pero un costo muy bajo. Estos usuarios utilizaban Bots de Telegram durante toda la noche, lo que causaba un consumo excesivo de recursos informáticos. Según un analista, esta disparidad en el uso del token es “realmente indicativa del problema”. Los propios ejecutivos de la empresa reconocieron este problema, afirmando que tales patrones de uso eran insostenibles desde un punto de vista económico.De tamaño desproporcionadoY esas suscripciones no se crearon con el fin de satisfacer las necesidades de los usuarios. Esto generó un conflicto directo entre el comportamiento de los usuarios y la capacidad de gestión de Anthropic. Por lo tanto, la medida de control de costos era algo necesario, aunque doloroso.
El impacto financiero y estratégico inmediato
El cambio en la política implica una monetización directa de un canal de uso que, anteriormente, era gratuito y que implicaba altas demandas de recursos. A partir del 4 de abril, los usuarios deben pagar un costo adicional por el uso de dicho canal.Paquetes de uso con descuentoO se puede utilizar una clave de API separada para ejecutar herramientas como OpenClaw. Esto convierte lo que era un método de trabajo no estructurado y subvencionado, en algo que implica un costo medido y pagado según el uso real. Para Anthropic, esto representa un claro beneficio en términos de ganancias y pérdidas: se obtienen ingresos de aquellos usuarios que anteriormente utilizaban una cantidad considerable de recursos computacionales, sin que eso tuviera un costo directo para la empresa.
Desde un punto de vista estratégico, este cambio tiene dos objetivos principales. En primer lugar, sirve para proteger la experiencia de suscripción básica. Al limitar el uso de recursos informáticos por parte de tareas en segundo plano y procesos automatizados, Anthropic puede manejar mejor sus recursos computacionales limitados y mantener la calidad del servicio para sus clientes pagantes. Se trata de una medida defensiva para mejorar la retención y la satisfacción de sus usuarios principales. Como señaló un ejecutivo de la empresa, las suscripciones “no están diseñadas para adaptarse a los patrones de uso de estas herramientas de terceros”. Este cambio tiene como objetivo “gestionar nuro crecimiento de manera que podamos seguir brindando servicios de manera sostenible a largo plazo”.
En segundo lugar, esta política constituye un estímulo sutil hacia el ecosistema propio de Anthropic. La empresa ofrece un crédito único, equivalente al costo mensual de su plan de uso, para aliviar las consecuencias negativas. Pero la forma más fácil de hacerlo es pagar más por el uso adicional o adoptar la API oficial de la empresa. Esto conduce naturalmente a la plataforma de API pagada de la empresa y a sus propias herramientas, como Claude Cowork. Es importante destacar que el creador de OpenClaw se ha unido ahora a OpenAI, lo que podría reducir aún más el número de personas que apoyan este herramienta de terceros.

En resumen, se trata de una reasignación táctica de recursos. Anthropic está sacrificando cierta cantidad de la voluntad de los usuarios a corto plazo, en aras de un mejor control financiero y de una infraestructura más sostenible. Se trata de un ajuste basado en eventos concretos: se convierte una vulnerabilidad costosa en una nueva fuente de ingresos, al mismo tiempo que se protege el negocio principal de Anthropic.
Catalizadores y riesgos: Lo que hay que vigilar a continuación
El cambio táctico ya está en vigor. La clave para tomar decisiones futuras es si el uso de tokens por usuario disminuye después de la implementación del cambio, lo que confirmaría que la situación se está gestionando adecuadamente. Los datos muestran que el problema era realmente grave: una simple consulta como “¿Qué modelo estás utilizando?”, podría causar problemas.Más de 10,000 tokens de respuesta.Y un informe señaló que los usuarios quemaron algo.50,000 tokens para decir “hola”.Si estos datos se normalizan en relación con un uso más típico, eso confirmará el resultado de la estrategia de Anthropic. Estaremos atentos a los informes de los usuarios y a cualquier métrica oficial sobre el consumo promedio de tokens por sesión, en las próximas semanas.
Un riesgo paralelo es la reacción negativa por parte de los usuarios o su migración a otros modelos. El creador de OpenClaw consideró esa situación como una “pérdida” para los usuarios. Ahora, el creador del tool se ha unido a OpenAI. Esto podría causar una pérdida de usuarios. Es importante estar atentos a cualquier tipo de comentarios en las comunidades de desarrolladores sobre la migración a modelos con políticas más permisivas o más económicas. La estabilidad del ecosistema Claude será puesta a prueba, especialmente entre los usuarios más avanzados que han establecido sus flujos de trabajo basándose en el modelo anterior.
Por último, hay que estar atentos a cualquier ajuste adicional en la capacidad de procesamiento, o a nuevos niveles de precios, a medida que evolucione la demanda. La empresa Anthropic ya tuvo que ajustar los límites de uso la semana pasada, lo que demuestra que la situación sigue siendo difícil. Es posible que la empresa necesite introducir nuevos niveles de precios más detallados para las soluciones de automatización intensiva, o ofrecer paquetes de API más completos para capturar la demanda generada por estos servicios. Cualquier anuncio futuro sobre el escalamiento de la capacidad o la introducción de nuevos niveles de productos será una indicación clara de si el modelo actual es suficiente para manejar el crecimiento de manera sostenible.



Comentarios
Aún no hay comentarios