La implementación de la IA por parte de la CIA: escalar los chatbots y agentes, manteniendo al mismo tiempo el control humano.
La CIA está ahora expandiendo sus operaciones relacionadas con la inteligencia artificial.Cientos de proyectos relacionados con la inteligencia artificial están en ejecución.Esto representa un cambio decisivo, desde la adopción hasta la implementación real de las soluciones, después del lanzamiento de un programa de educación en materia de inteligencia artificial para miles de oficiales, así como la implementación de un chatbot central. La agencia ha construido una infraestructura básica, incluyendo un repositorio de modelos, para apoyar esta expansión.
El siguiente enfoque estratégico consiste en aprovechar las capacidades de la IA para mejorar las capacidades tácticas de los agentes. La CIA pretende utilizar modelos más pequeños y agentes de IA para que los oficiales puedan trabajar en entornos remotos o hostiles, donde la conectividad es limitada. Este enfoque tiene como objetivo liberar a los analistas de la tarea de recopilar datos, permitiéndoles dedicar el 80% de su tiempo a la reflexión crítica sobre la información obtenida.
Para lograr esta escalabilidad y flexibilidad, la CIA ha colaborado con cuatro importantes proveedores de servicios en la nube. Este cambio hacia una infraestructura externa y escalable es clave para poner nuevos modelos tecnológicos a disposición de los usuarios en pocos días, además de permitir el uso de la pila tecnológica necesaria para el desarrollo de las funciones de misión.

El Marco de Humano-en-el-Círculo
La estrategia de la AI de la CIA se basa en un principio claro y innegable:Los humanos son responsables de los riesgos, de las intenciones y de las decisiones finales.Esta filosofía de “humano en el ciclo de control” no es una mera formalidad; constituye el núcleo del diseño para potenciar la experiencia humana, y no para reemplazarla. La agencia considera expresamente que la IA es un herramienta para mejorar la seguridad, pero no como un medio para eliminar la responsabilidad.
Un ejemplo concreto de este enfoque se encuentra en las revisiones de seguridad de aplicaciones. La CIA está estudiando cómo utilizar la inteligencia artificial para emular el juicio de los ingenieros experimentados. De esta manera, se puede mejorar la calidad de las revisiones realizadas por personal menos experimentado. Esto es similar al uso interno de la inteligencia artificial por parte de Amazon, que utiliza decisiones de seguridad pasadas para entrenar los modelos utilizados en el proceso de análisis de seguridad.Aumenta el nivel absoluto de seguridad.Una organización puede ofrecer esto. El objetivo es liberar a los analistas humanos de tareas repetitivas, permitiéndoles así concentrarse en el pensamiento de mayor nivel y en la toma de decisiones críticas.
Sin embargo, el director de IA de la agencia señala una vulnerabilidad técnica importante: la falta de explicabilidad en las acciones realizadas por los agentes de inteligencia artificial. A medida que estos sistemas realizan acciones más complejas y que involucran múltiples pasos, la CIA es plenamente consciente del problema que representa esta “caja negra”. La incapacidad de rastrear o explicar de manera consistente la lógica interna de un agente de inteligencia artificial constituye un desafío fundamental para la supervisión, la rendición de cuentas y la capacidad de demostrar que se cumple con las normativas regulatorias.
Catalizadores, riesgos y lo que hay que tener en cuenta
El catalizador a corto plazo es la legislación.Proyecto de ley de autorización de inteligencia para el año 2026Se establece una estrategia para “adquirir e integrar tecnologías emergentes que se hayan demostrado capaces de satisfacer las necesidades de la misión”. Esto genera un flujo directo de fondos y dirección hacia la implementación de dichas tecnologías. El anuncio reciente de la agencia sobre un proceso simplificado para “acelerar y optimizar los esfuerzos de colaboración de la CIA con socios comerciales estadounidenses” es una respuesta directa a este mandato. El objetivo es reducir el tiempo que transcurre desde la definición de las necesidades hasta la obtención de la autorización necesaria para adoptar dichas tecnologías.
El principal riesgo operativo es la sorpresa tecnológica. La CIA se está preparando activamente para enfrentar posibles “cambios revolucionarios” en el ámbito tecnológico.Inteligencia General Artificial (AGI)Esto podría transformar fundamentalmente la misión de la agencia. El subdirector Michael Ellis dijo que la agencia se está preparando para esta posibilidad, sin descuidar ningún aspecto en sus esfuerzos por comprender y aprovechar esa situación. Lo que tememos es que un competidor, como China, pueda lograr un avance tecnológico primero. Esto ya ha ocurrido con el modelo costeable de DeepSeek, que tomó a los rivales estadounidenses por sorpresa.
Para mitigar esto, la CIA utiliza su amplio ecosistema de recursos. Esto incluye su propia Dirección de Ciencia y Tecnología, sus laboratorios internos y su división de empresas In-Q-Tel. El objetivo es evitar aquellos acontecimientos disruptivos que podrían poner en peligro la seguridad nacional de Estados Unidos. La insistencia de la agencia en lograr acuerdos rápidamente no se trata solo de eficiencia; es una medida defensiva para mantenerse al frente de una competencia en la que el próximo paso podría ser decisivo para la supervivencia de la nación.



Comentarios
Aún no hay comentarios