La prohibición antropológica impuesta por el Tesoro indica un punto de inflexión en el desarrollo de la inteligencia artificial empresarial. Es algo que los inversores en infraestructuras deben conocer.
La declaración del 2 de marzo del Secretario del Tesoro, Scott Bessent, en la que anunciaba la cancelación de todos los productos relacionados con la inteligencia artificial en el Departamento del Tesoro, no representa una crítica a las capacidades técnicas de Claude. Se trata más bien de una declaración sobre el control soberano sobre las cadenas de suministro de inteligencia artificial.
La decisión se tomó pocas semanas después de que Anthropic cerrara…Ronda de financiación de 30 mil millones de dólaresCon una valoración de 380 mil millones de dólares, esa empresa ha logrado duplicar su valor en comparación con el valor que tenía en septiembre. Se trata de una compañía que ha decidido intensificar sus esfuerzos en el área de infraestructura, lo que indica una gran confianza en su crecimiento exponencial. El momento en el que se toma esta decisión es crucial. La administración podría haber esperado, pero optó por actuar de inmediato después de anunciar la financiación. Esto envió un mensaje claro: ninguna cantidad de capital o apoyo empresarial puede cambiar los cálculos relacionados con la seguridad nacional.
La declaración de Bessent no dejó ningún tipo de ambigüedad respecto al principio en cuestión.Bajo el gobierno del presidente Trump, ninguna empresa privada podrá decidir los términos de nuestra seguridad nacional.Él lo declaró así. La frase “ninguna empresa privada” es la clave del mensaje. No se trata específicamente de Anthropic; se trata de establecer que el gobierno de los Estados Unidos conserva la autoridad suprema sobre las herramientas de IA utilizadas en las operaciones federales, independientemente de cuán capaces sean esas herramientas o de cuánta infraestructura necesite una empresa para funcionar.
Los detalles operativos permanecen intencionalmente vagos. La declaración no proporcionó un cronograma detallado para cuando se completará la transición hacia productos que no utilicen los principios de Anthropic. Esa omisión es importante. Cuando se toma una decisión basada en principios, los detalles de ejecución vienen después. El gobierno establece primero los límites, y luego se ocupa de resolver los aspectos logísticos relacionados con el cumplimiento de las normas en todos los sistemas federales.
Para los inversores en infraestructura, esta distinción es crucial. La prohibición se refiere a las restricciones contractuales impuestas por Anthropic a las armas autónomas y al monitoreo masivo. No se trata de la calidad del modelo de negocio, de la capacidad de la empresa para atraer clientes o de sus habilidades de programación. Los ingresos anuales de Anthropic han aumentado a 14 mil millones de dólares, de los cuales aproximadamente el 80% provienen de clientes corporativos. Solo en lo que respecta a Claude Code, los ingresos anuales han alcanzado los 2.5 mil millones de dólares. Estos no son indicadores de que una empresa esté enfrentando problemas técnicos relacionados con su tecnología.
La decisión redefina la tesis de inversión. No se trata de si la tecnología de Anthropic funciona o no. Se trata de si alguna empresa de IA puede operar a gran escala, manteniendo al mismo tiempo las normas contractuales que limitan los casos de uso por parte del gobierno. La designación de riesgo en la cadena de suministro indica que el gobierno de EE. UU. dará prioridad a la flexibilidad operativa sobre las capacidades tecnológicas cuando estas dos cosas entren en conflicto. Es una restricción de tipo gubernamental, no un rechazo a la tecnología en sí.

La posición de Anthropic respecto a la curva de desarrollo de la inteligencia artificial: Desacoplamiento entre el crecimiento y la gobernanza.
Indudablemente, la perspectiva antropica ha entrado en esa parte pronunciada de la curva de adopción en forma de “S”. Las métricas indican claramente un aumento exponencial en los ingresos: el ritmo de crecimiento de los ingresos se incrementó significativamente.30 mil millones en abril de 2026Desde los 9 mil millones de dólares al final del año 2025, el número de visitas mensuales a claude.ai ha aumentado 3.3 veces en tan solo cuatro meses. En doce meses, el número de visitas mensuales se incrementó de 16 millones a 220 millones, lo que representa un aumento de 13 veces. Esto indica una rápida adopción por parte de los consumidores y profesionales. La penetración de Claude.ai en el mercado empresarial también ha aumentado rápidamente: ahora, uno de cada cinco empresas utiliza Claude.ai para pagar sus servicios, en comparación con solo una de cada 25 empresas hace un año.
Se trata de un comportamiento típico de una curva en forma de “S”. La mayoría de los inversores ya han adoptado esta estrategia. Lo que preocupa a los inversores es si la prohibición impuesta por el Tesoro puede representar un cambio estructural en esa trayectoria.
La prohibición crea un nuevo nivel de riesgo que no existía en las infraestructuras de IA anteriores. Gobiernos y sectores empresariales regulados –sanidad, finanzas, contratación militar– ahora enfrentan restricciones en la adquisición de soluciones basadas en IA, lo que podría retrasar su uso en sectores de alto valor. Cuando una agencia federal no puede utilizar una herramienta de IA debido a las restricciones contractuales, esa es una limitación de tipo gubernamental, no un fallo tecnológico. Pero las consecuencias comerciales son las mismas: se reduce el mercado potencial en aquellos sectores que tradicionalmente invierten mucho en software empresarial.
La tensión es evidente. La trayectoria de ingresos de Anthropic indica que está alcanzando el punto de inflexión en la adopción de la inteligencia artificial en el sector privado. Sin embargo, el rechazo por parte del gobierno sugiere que las capacidades que lo hacen atractivo para las empresas –como la comprensión lingüística avanzada, la generación de código y la autonomía de los agentes– también lo convierten en un objetivo de escrutinio por parte de las autoridades de seguridad nacional.Designación de riesgos en la cadena de suministroSe trata de cualquier organización que tenga contratos federales o que esté sujeta a regulaciones gubernamentales. Ahora, dichas organizaciones deben comparar las capacidades de Anthropic con el riesgo relacionado con los procesos de adquisición.
Para los inversores en infraestructuras, esto cambia la forma en que se considera esta situación. La pregunta ya no es simplemente si la tecnología de Anthropic es competitiva (las cifras de ingresos responden a eso). Se trata de si una empresa de IA puede mantener un crecimiento exponencial cuando las normas de seguridad establecidas en sus contratos, que originalmente eran una ventaja, se convierten en un obstáculo en las industrias más reguladas y con mayores costos. La curva S sigue siendo ascendente. Pero los problemas de gobernanza añaden una nueva variable a la ecuación de adopción, algo que las infraestructuras de IA anteriores nunca enfrentaron.
Implicaciones en la infraestructura: Los ganadores y los perdedores en la capa de procesamiento.
La prohibición impuesta por el Tesoro no afecta directamente las alianzas de infraestructura de Anthropic. Sin embargo, sí modifica los cálculos estratégicos de todos los actores involucrados en el ámbito informático.
El agnosticismo de Anthropic en cuanto al hardware se ha convertido en una ventaja estratégica para la empresa. La compañía utiliza una variedad de dispositivos para su capacitación: chips AWS Trainium, Google TPUs y GPU de NVIDIA.Los 30 mil millones de dólares en financiación de la Serie GLa decisión del Tesoro no amenaza estas alianzas. Pero sí aumenta el valor de la diversificación de proveedores. Cuando un solo segmento de clientes, como el gobierno federal, se vuelve inaccesible debido a los riesgos en la cadena de suministro, la conveniencia económica de adoptar estrategias de uso de múltiples nubes y múltiples proveedores aumenta. La trayectoria de ingresos de Anthropic…30 mil millones de dólares anualmente, en abril de 2026.Le proporciona el capital necesario para mantener esta diversificación, sin comprometer la eficiencia del negocio.
La posición de OpenAI en cuanto a su infraestructura parece más débil. La ronda de financiación de la empresa, por valor de 122 mil millones de dólares, con una valuación de 852 mil millones de dólares, indica una gran confianza en el capital invertido. Pero las preocupaciones de los inversores sobre posibles pérdidas masivas aumentan. Además, la inestabilidad en el equipo directivo de OpenAI –tres líderes importantes abandonaron o se reestructuraron en solo una semana– crea riesgos operativos justo en el momento en que los compradores de empresas están reevaluando las estrategias de los proveedores de AI. La investigación realizada por el New Yorker sobre la reputación de seguridad de OpenAI, basada en memorandos internos, agrega otro factor de incertidumbre en la toma de decisiones. Cuando las agencias gubernamentales ya están examinando detenidamente las cadenas de suministro de AI, una empresa que enfrenta cambios en su liderazgo y problemas relacionados con la seguridad se vuelve aún más difícil de vender.
El cambio más significativo se refiere a lo que los inversores en infraestructuras deben ahora tener en cuenta: el riesgo de desviación de las políticas soberanas. La decisión del Tesoro establece que las empresas que cuentan con estructuras de gobierno claras y transparencia en sus cadenas de suministro obtienen ventajas en los procesos de contratación. Las medidas de seguridad implementadas por Anthropic, que originalmente eran una característica diferenciadora para garantizar la seguridad de las empresas, se convirtieron en el motivo exacto que provocó la prohibición. Según la investigación realizada por el New Yorker, la distancia que mantiene OpenAI con su misión fundamental de priorizar la seguridad, crea un riesgo similar, pero diferente.
En cuanto a la capa de computación, esto significa que los inversores en infraestructuras deberían favorecer a las empresas que cuenten con: (1) estructuras de gobierno transparentes, con sede en Estados Unidos; (2) capacidades de implementación en múltiples nubes, lo que reducirá la dependencia de un solo proveedor; y (3) registros de auditoría claros que demuestren el cumplimiento de los requisitos de seguridad. Las empresas que logren ganar en la próxima ola de gastos relacionados con la inteligencia artificial en empresas no serán simplemente aquellas que tengan los modelos más avanzados… sino aquellas que puedan demostrar que su infraestructura cumple con los requisitos de seguridad nacional.
La curva en forma de “S” sigue siendo ascendente para la infraestructura de IA en general. Pero los obstáculos relacionados con la gobernanza introduce una nueva presión de selección en el nivel de procesamiento, donde lo que se valora es tanto la transparencia estructural como las capacidades intrínsecas del sistema.
Qué ver: Catalizadores y factores que provocan cambios en el escenario.
La prohibición impuesta por el Tesoro es un indicador importante, pero no una decisión definitiva. Para los inversionistas en el sector de infraestructuras, la pregunta crucial es si esto representa un problema temporal relacionado con el gobierno de la empresa o si se trata de un cambio estructural en la trayectoria de la “curva en S” de Anthropic. Cuatro factores determinarán la respuesta a esta cuestión.
Las prohibiciones consecutivas impuestas por las agencias gubernamentales cambiarán fundamentalmente el mercado al que se puede llegar. La decisión del Tesoro fue presentada como un paso preliminar, con los detalles de la implementación dejados en manos de otros organismos. Esa vaguedad es en sí misma una señal de que otras agencias federales ya reconocen que la seguridad de las cadenas de suministro basadas en IA es una prioridad. Esperemos que en los próximos meses haya recomendaciones de adquisición provenientes del Departamento de Defensa, del Departamento de Seguridad Interna y del Departamento de Justicia. Si incluso dos o tres agencias importantes siguen el ejemplo del Tesoro, Anthropic perderá acceso a los sectores del mercado que requieren más regulaciones y gastos, es decir, aquellos sectores que tradicionalmente utilizan la tecnología de IA empresarial. Las métricas de ingresos son impresionantes.30 mil millones de dólares anualesPero eso refleja la adopción por parte del sector privado. Los contratos gubernamentales representan una dimensión diferente del mercado: un mercado con ciclos de adquisición diferentes y un mayor valor a largo plazo. Una situación como esta comprimiría el mercado total al que puede llegar Anthropic, de una manera que el crecimiento del sector privado por sí solo no podría compensar.
El cronograma de la oferta pública inicial (de 12 a 18 meses) se convierte en un punto de inflexión en la evaluación del valor de la empresa. Se espera que Anthropic presente su solicitud para realizar una oferta pública inicial en el próximo año y medio.Especulaciones citadas en los anuncios de financiación.La valoración de la empresa en la salida a bolsa estará fuertemente influenciada por si los contratos gubernamentales siguen estando disponibles para la empresa. Con un valor de 380 mil millones de dólares después de la financiación, la empresa ya ha duplicado su valor en septiembre, gracias a su escala de negocios y su éxito en el sector de infraestructura empresarial. Pero los inversores del mercado público exigirán claridad sobre los riesgos relacionados con la alineación con las políticas soberanas del gobierno. Si la revisión de la política de inteligencia artificial por parte del gobierno genera nuevas regulaciones que limiten a las empresas de inteligencia artificial que tienen influencia extranjera, o si esto genera nuevos costos de cumplimiento para todos los actores del sector, entonces el múltiplo de valoración podría disminuir. Por otro lado, si Anthropic puede demostrar que cuenta con estructuras de gobierno transparentes en Estados Unidos y que sus cadenas de suministro son auditables, podría obtener un beneficio adicional debido a su alineación con las políticas soberanas del gobierno, algo que los competidores no pueden ofrecer.
Las políticas de adquisiciones de las empresas son, en realidad, un factor de multiplicación silencioso. La verdadera prueba no se da solo en las agencias federales, sino también en las grandes corporaciones que adoptan estándares similares de seguridad en la cadena de suministro basados en la inteligencia artificial. Cuando las empresas del sector de la salud, las finanzas y la defensa enfrentan sus propias limitaciones en cuanto a los proveedores de tecnología de inteligencia artificial, la dinámica competitiva se desplaza hacia las empresas con gobierno corporativo transparente. Las normas contractuales de Anthropic, que originalmente eran una característica diferenciadora para garantizar la seguridad, se convirtieron en el motivo del veto del Tesoro. La pregunta para los inversores es: ¿podrá Anthropic reestructurar su gobierno corporativo para mantener sus compromisos de seguridad, al mismo tiempo que elimina las dificultades en las adquisiciones? La inestabilidad en la liderazgo de OpenAI y las cuestiones relacionadas con la seguridad, según la investigación de The New Yorker, representan otro riesgo importante. Las empresas que reevaluen sus estrategias de proveedores de tecnología de inteligencia artificial en los próximos 6-12 meses tendrán que prestar atención a estos signos de gobierno corporativo.
La revisión más amplia de la tecnología de inteligencia artificial por parte de la administración de Trump es algo incierto. La secretaria Bessent describió explícitamente la decisión del Tesoro como parte de un proceso más general.Una revisión más amplia por parte del gobierno de las tecnologías de IA.Esa revisión podría generar nuevas regulaciones que, o bien restringirán a las empresas de IA influenciadas por el extranjero, o bien generarán nuevos costos de cumplimiento para todas las empresas que trabajan con tecnologías de IA. El momento en el que se establezcan estas nuevas reglas es importante: si las nuevas normas surgen antes de la salida al mercado de Anthropic, el mercado tendrá que adaptarse a ellas. Pero si las normas surgen después, la empresa enfrentará un gran desafío de cumplimiento justo en el momento en que necesita demostrar su capacidad de crecimiento sostenible ante los inversores.
El escenario se simplifica bastante: si ninguna otra agencia sigue las directrices del Tesoro, la trayectoria de crecimiento de Anthropic permanecerá intacta, y los ingresos obtenidos por la oferta pública de acciones estarán al nivel o cerca del valor actual. Si se producen prohibiciones en cadena, la curva de crecimiento de Anthropic enfrentará nuevos obstáculos en materia de gobernanza, lo que reducirá el mercado disponible para sus productos de alto valor. El punto de inflexión no es técnico, sino de gobernanza. Los inversores deben estar atentos a los informes sobre adquisiciones, los detalles relacionados con la presentación de documentos para la oferta pública de acciones, y el lenguaje utilizado en los pedidos de propuestas de empresas relacionadas con la seguridad de la cadena de suministro de inteligencia artificial. Los próximos 6 a 12 meses revelarán si esta situación será temporal o si se tratará de un reajuste estructural en los riesgos asociados a la infraestructura de inteligencia artificial.



Comentarios
Aún no hay comentarios