Las empresas de infraestructura de seguridad basadas en IA son las nuevas “vías” para un paradigma de software que tenga un alto crecimiento y también altos niveles de riesgo.

Generado por agente de IAEli GrantRevisado porAInvest News Editorial Team
domingo, 22 de marzo de 2026, 12:28 am ET5 min de lectura
IT--

La historia de la inteligencia artificial en el área del software no se trata de una nueva función o característica. Se trata, más bien, de un cambio de paradigma que está reescritiendo las reglas fundamentales del desarrollo de software, y, por extensión, también las reglas relacionadas con la seguridad. Estamos pasando de un mundo en el que la inteligencia artificial ayuda en tareas secundarias, a uno en el que esta tecnología puede planificar, ejecutar y mejorar automáticamente el proceso de creación de software. No se trata de una curva de adopción, sino de una curva tecnológica en forma de “S”, que se acelera cada vez más. Las empresas que desarrollan infraestructuras de seguridad para gestionar esta nueva realidad están en posición de aprovechar el crecimiento exponencial que esto implica.

La magnitud de este cambio ya es algo común en el ámbito general. Es realmente asombroso.El 84% de los desarrolladores afirma que utiliza o planea utilizar herramientas de IA.En su proceso de desarrollo, el 22% del código combinado fue escrito por personal de área de inteligencia artificial. Esto no es una experimentación de carácter específico. Se trata de herramientas fundamentales para los desarrolladores, integradas en los flujos de trabajo diarios. El paradigma ha evolucionado significativamente, más allá del simple sistema de autocompletar. En 2026…Las órdenes de la IA autónoma captan el 55% de la atención.Gartner predice que el 40% de las aplicaciones empresariales incorporarán agentes de IA para finales de año. Se trata de una transformación sistémica, no de una adopción gradual.

Sin embargo, esta aceleración rápida ha generado un grave vacío en materia de seguridad. Mientras que…El 95% de las organizaciones utilizan ahora herramientas de inteligencia artificial.En cuanto al desarrollo, solo un cuarto de las empresas realiza evaluaciones exhaustivas de los riesgos asociados con este nuevo código. El resultado es una situación peligrosa, ya que las solicitudes de pull requests en las que participa la IA presentan aproximadamente 1.7 veces más problemas que las solicitudes realizadas únicamente por personas humanas. Además, la cadena de suministro está bajo ataque: dos tercios de las empresas han sufrido ataques en su cadena de suministro de software durante el último año. Estamos construyendo la infraestructura digital del futuro sobre bases que aún no hemos revisado completamente.

La tesis central de la inversión es clara: a medida que la IA pasa de ser una herramienta de productividad a convertirse en el principal arquitecto de los software, la necesidad de contar con una infraestructura de seguridad sólida para gestionar su producción se convierte en un factor indispensable para el crecimiento exponencial del sector. Las empresas que desarrollan las herramientas necesarias para este nuevo paradigma, es decir, aquellas que evalúan automáticamente el código generado por la IA en cuanto a propiedad intelectual, licencias y vulnerabilidades de seguridad, no simplemente venden un producto. Están proporcionando las herramientas necesarias para que toda la industria pueda avanzar hacia una nueva fase de crecimiento.

La capa de infraestructura: Cómo manejar los riesgos relacionados con el código generado por la IA

La inseguridad fundamental del código generado por la IA ya está cuantificada. Un estudio reciente determinó que…El 62% de las soluciones de código generadas por la IA contienen defectos de diseño o vulnerabilidades de seguridad conocidas.Incluso cuando se utilizan los modelos de base más actuales, esto sigue siendo un problema grave. No se trata de un defecto menor; es un riesgo sistémico inherente a los resultados obtenidos por estos modelos. El problema radica en la forma en que funcionan estos modelos. Aprenden mediante el reconocimiento de patrones en vastos repositorios de código de fuente abierta. Esto significa que pueden generar constantemente patrones inseguros, como las vulnerabilidades relacionadas con la inyección de SQL, que eran comunes en los datos de entrenamiento. Además, estos modelos buscan optimizar el camino más corto para obtener resultados rápidamente. Esto lleva a métodos peligrosos, como la función eval(expression), que permite la ejecución remota de código. El resultado es un código en el que las vulnerabilidades no se presentan como líneas de código individuales, sino como fallas lógicas, falta de controles y patrones inconsistentes. Todo esto erosiona la confianza y la seguridad del sistema con el paso del tiempo.

Esto crea un ciclo de retroalimentación peligroso para la cadena de suministro de software. Mientras que…El 22% del código fusionado ahora está escrito por inteligencias artificiales.La brecha en la calidad es bastante significativa. Las solicitudes de cambios escritas con la ayuda de la IA presentan aproximadamente 1.7 veces más problemas que las solicitudes realizadas por personas humanas. A pesar de la velocidad y conveniencia que ofrece la IA, esta introduce un nuevo tipo de riesgo que los herramientas de seguridad tradicionales no están bien preparadas para manejar. Los problemas relacionados con la seguridad no se limitan únicamente a aspectos sintácticos; se trata también de la falta de comprensión del modelo del sistema por parte del modelo automático, así como de los estándares internos y del panorama de amenazas a los que está expuesta la aplicación. Esta desconexión convierte la promesa de un desarrollo acelerado en una posible responsabilidad.

La respuesta del mercado apenas está comenzando a escalar. El mundo de los analistas ya está advirtiendo sobre esta situación, y recomiendan que se utilicen métodos como el sandboxing y las evaluaciones de riesgos para la implementación de herramientas de IA. El mercado de herramientas de gobernanza de IA está en sus inicios, pero está creciendo rápidamente. Se estima que el mercado de estas herramientas alcanzará los 3,0 a 3,5 mil millones de dólares en el año 2025. La idea de invertir en este sector es clara: a medida que la IA pasa de ser una herramienta de productividad a ser el principal arquitecto del software, la necesidad de contar con una infraestructura de seguridad sólida para gestionar su producción se vuelve algo indispensable. Las empresas que desarrollan estas herramientas no simplemente venden un producto; en realidad, están proporcionando las bases necesarias para el siguiente stage de crecimiento de toda la industria.

Impacto financiero y dinámica del mercado

La necesidad de una infraestructura de seguridad se está traduciendo directamente en flujos presupuestarios y en la expansión del mercado. Los presupuestos relacionados con la ciberseguridad están en una tendencia claramente ascendente.Casi ocho de cada diez organizaciones (78%) afirman que su presupuesto cibernético aumentará en los próximos 12 meses.Más importante aún, la inversión en inteligencia artificial se ha convertido en la prioridad número uno. El 36% de las organizaciones consideran que esta es una prioridad más importante que la seguridad en la nube o en las redes. No se trata de un cambio menor; se trata de una reasignación fundamental del capital para gestionar este nuevo paradigma. El mercado de herramientas que permiten garantizar el desarrollo basado en la inteligencia artificial es enorme y está preparado para un crecimiento exponencial. El mercado de asistentes de programación para la inteligencia artificial tiene un valor considerable.4.7 mil millones de dólares, hoy en día.Se proyecta que esta cifra se triplique hasta los 14.600 millones de dólares para el año 2033. Esto crea un mercado muy amplio para las herramientas de seguridad, y es necesario integrarlas en el flujo de trabajo desde el inicio.

Sin embargo, existe una importante brecha en el talento, lo que amenaza con retrasar la adopción de las tecnologías de IA para la defensa cibernética. La falta de conocimientos sobre cómo aplicar la inteligencia artificial en este campo es considerada por la mitad de los líderes como su mayor desafío interno. Este déficit de habilidades es algo negativo, ya que crea un obstáculo para muchas empresas. Pero, al mismo tiempo, también define el panorama competitivo del mercado. Los ganadores serán aquellos proveedores de infraestructura que puedan superar esta brecha, ofreciendo herramientas que no solo sean eficaces, sino también intuitivas para equipos que no cuenten con conocimientos profundos en materia de IA. El mercado está respondiendo a esto con un enfoque en la automatización y la consolidación de herramientas de seguridad. Casi la mitad de los líderes en el área de seguridad priorizan el uso de herramientas automatizadas y la consolidación de soluciones relacionadas con la seguridad cibernética.

La dinámica financiera es clara: a medida que la IA pasa de ser una herramienta de nicho a convertirse en un componente esencial en la creación de software, el aspecto de seguridad se convierte en algo indispensable y con márgenes de ganancia elevados. El cambio en el presupuesto confirma que esto constituye una prioridad estratégica, y no simplemente un costo adicional. El tamaño del mercado proyectado indica que existe una gran oportunidad de crecimiento a largo plazo. Además, la escasez de talento resalta la importancia de soluciones que reduzcan los obstáculos para que las empresas puedan participar en este mercado. Para los inversores, esto representa una buena oportunidad para empresas que desarrollen productos que se adapten a la curva de adopción de la IA. Estos productos podrán obtener precios elevados debido a su importancia, y operar en un mercado donde la demanda está siendo impulsada por los presupuestos corporativos.

Catalizadores, escenarios y riesgos

El camino a seguir para la infraestructura de seguridad de la IA está determinado por factores poderosos y riesgos claros. El factor más importante es el costo tangible de la inacción.Dos tercios de las empresas han sufrido ataques en la cadena de suministro de software durante el último año.Los costos financieros y operativos son reales. Las violaciones de alto nivel que se originan debido a dependencias comprometidas o códigos generados por la IA obligarán a una reubicación obligatoria de los recursos disponibles. Esta presión acelerará la adopción de herramientas como el Software Bill of Materials (SBOM), y, más importante aún, de las herramientas de auditoría de código inteligente, que constituyen el eje central de esta tesis. El vacío en materia de seguridad ya no es algo teórico; se trata de una responsabilidad empresarial que impondrá la necesidad de reasignar los presupuestos correspondientes.

El escenario de éxito depende de la velocidad con la que se maduran las herramientas utilizadas en el desarrollo de sistemas de IA. Si las soluciones de gobernanza pueden adaptarse para enfrentar el crecimiento exponencial del código de IA, entonces estas se convertirán en un paso indispensable en el flujo de desarrollo de tales herramientas. Esto crea un ciclo virtuoso: herramientas mejoradas conducen a resultados más seguros de los sistemas de IA, lo cual, a su vez, fomenta una mayor adopción de dichas herramientas, expandiendo así el mercado. La alternativa es una mayor brecha en materia de seguridad. A medida que los sistemas de IA ganan más autonomía, aumenta el riesgo de que existan vulnerabilidades no detectadas o código malicioso. Esto podría llevar a una serie de ataques que erosionen la confianza en los software basados en IA, lo que a su vez hará que las regulaciones se intensifiquen y posiblemente frenen la innovación. El crecimiento del mercado depende de la capacidad de la industria para gestionar sus propias herramientas.

Sin embargo, existe un riesgo crítico: la sobreconfianza en la inteligencia artificial para la seguridad podría generar nuevos vectores de ataque. Las herramientas diseñadas para auditar el código generado por la IA son, a su vez, sistemas software complejos. Si estas plataformas de gobernanza se ven comprometidas, podrían utilizarse para introducir lógicas maliciosas en el propio código que deberían proteger. Se trata de un ciclo vicioso de peligros. El informe sobre los riesgos relacionados con el código generado por la IA señala que…Los modelos por sí solos pueden ser vulnerables a ataques y manipulaciones.A medida que la capa de infraestructura de seguridad se vuelve más importante, también se convierte en un objetivo más atractivo para los atacantes. La solución radica en desarrollar estas herramientas con la seguridad como principio fundamental desde el primer día, asegurando así su propia integridad. Las herramientas utilizadas deben ser más robustas que las “trenes” que guían.

author avatar
Eli Grant

Comentarios



Add a public comment...
Sin comentarios

Aún no hay comentarios