El mandato de OpenAI en las salas de reuniones: Un paso preventivo en la carrera por el control de la inteligencia artificial

Generado por agente de IAJulian WestRevisado porAInvest News Editorial Team
lunes, 23 de febrero de 2026, 5:20 am ET4 min de lectura

La integración de la inteligencia artificial en las funciones fundamentales del negocio y en los aspectos regulatorios está creando una nueva clase de riesgos sistémicos. Este cambio no es simplemente tecnológico; se trata de una redefinición estructural de los mecanismos de supervisión. En su esencia, esto implica el surgimiento de agentes o sistemas capaces de completar tareas de forma autónoma, sin necesidad de intervención humana. A diferencia del software tradicional, estos agentes pueden planificar, tomar decisiones y llevar a cabo acciones para alcanzar objetivos. Sin embargo, su alcance y autoridad pueden exceder los límites establecidos. Esta autonomía introduce vulnerabilidades únicas: los resultados pueden ser poco transparentes y difíciles de auditar; las funciones de recompensa pueden desviarse; además, la falta de conocimientos tácitos o experiencia en el área involucrada puede llevar a errores en la ejecución de las tareas. En resumen, son herramientas poderosas que operan de manera que los marcos de gobierno nunca estuvieron diseñados para manejarlo.

Este salto tecnológico ha superado la capacidad de supervisión de las empresas. La brecha en materia de gobernanza es evidente. En el año 2024, solo…El 39 por ciento de las empresas que forman parte de la lista Fortune 100 han revelado algún tipo de supervisión oficial por parte del consejo de administración en relación con el uso de la inteligencia artificial.Lo que es aún más preocupante es que una encuesta mundial reveló que el 66 por ciento de los directores indicaron que tenían “poco o ningún conocimiento ni experiencia” en relación con esta tecnología. Esta falta de conocimientos es una vulnerabilidad grave. A los consejos de administración se les pide que gestionen miles de millones de dólares de valor potencial, pero, además, a menudo carecen de los conocimientos básicos necesarios para evaluar los riesgos, especialmente aquellos que plantean los sistemas autónomos.

Los reguladores están comenzando a reconocer este desequilibrio. La opinión generalizada está cambiando: ya no se considera que el control exclusivamente humano sea una medida de seguridad, sino que se ve como un riesgo potencial. El mandato de Bret Taylor en OpenAI es un paso estratégico y preventivo, que refleja este cambio estructural. Su orden para que los miembros del consejo preparen documentos escritos sin contenido relacionado con la IA no se trata simplemente de un procedimiento administrativo; se trata de una medida deliberada para asegurar que el pensamiento estratégico y la supervisión sigan estando en manos de los humanos. Su predicción…Los reguladores comenzarán a pedir a los agentes que actúen en su nombre.Se trata de un desafío directo al statu quo actual. Significa que las futuras regulaciones probablemente exigirán que haya supervisión humana sobre los sistemas de IA, y no lo contrario. En este nuevo paradigma, la responsabilidad de los miembros del consejo es asegurar que el juicio y la responsabilidad humana estén presentes, y que estos aspectos sean incorporados en el diseño y funcionamiento de estos sistemas autónomos. Este mandato sirve como una protección contra las futuras exigencias regulatorias.

El mandato en constante evolución del Consejo de Administración: De la conciencia hacia una gestión activa

El vacío en la gobernanza ya no es una cuestión teórica; se trata de un riesgo operativo y legal real. La evidencia es clara: a pesar del impacto generalizado de la IA, la supervisión por parte de los consejos de administración sigue siendo rudimentaria. A partir de 2024, solo…El 39 por ciento de las empresas que forman parte de la lista Fortune 100 han revelado algún tipo de supervisión oficial por parte del consejo de administración en relación con el uso de la inteligencia artificial.Este retraso es peligroso. A los directivos de las empresas se les pide que gestionen una cantidad enorme de valor potencial, pero con frecuencia no tienen la capacidad básica para evaluar los riesgos, especialmente aquellos que representan los sistemas autónomos. El mandato de Bret Taylor en OpenAI consiste en proporcionar un sistema de protección preventiva, pero eso sigue siendo solo un punto de partida. El verdadero trabajo comienza con la transición de una percepción pasiva a una gestión estratégica activa.

Esta gestión requiere que se defina claramente la postura de la empresa en relación con la inteligencia artificial. Los directivos deben ir más allá de las declaraciones generales sobre “abrazar la innovación”, y buscar un equilibrio entre la búsqueda de beneficios transformadores y el riesgo de fracasos sistémicos. El memorando de EY destaca esta tensión: aunque la inteligencia artificial promete un crecimiento rápido, también puede generar escándalos y causar perturbaciones en el trabajo. La orientación del consejo de administración es crucial para ayudar a las empresas a utilizar la inteligencia artificial para su crecimiento, manteniendo al mismo tiempo las habilidades necesarias y fomentando la responsabilidad. Esto implica cuestionar a los gerentes sobre los compromisos entre velocidad y seguridad, y asegurarse de que la empresa cuente con el personal adecuado y las habilidades necesarias para una fuerza laboral mejorada por la inteligencia artificial. Se trata de una función estratégica, no solo de riesgo.

Sin embargo, una supervisión efectiva requiere algo más que simplemente orientación de alto nivel. Se necesitan métricas claras y marcos de gobernanza formales. No obstante, las encuestas indican que solo…Una minoría de empresas ha adoptado marcos de gobernanza formales o establecido métricas claras para la supervisión.Esta ausencia de estructura es una vulnerabilidad importante. Sin indicadores clave de rendimiento del modelo, sesgos o riesgos operativos definidos, los consejos de administración no pueden evaluar significativamente la ejecución de la gestión ni hacer que las personas responsables rindan cuentas de sus acciones. La necesidad legal de esto está aumentando; como señalan los manuales de WilmerHale, la gobernanza responsable de la IA es ahora un imperativo legal y estratégico para cumplir con las obligaciones fiduciarias.

El sector de servicios financieros ya está estableciendo los estándares en este área. Los reguladores relacionados con este sector tratan a los agentes de IA como un punto focal para la supervisión, reconociendo sus riesgos únicos. El copresidente de GenAI en FINRA ha identificado vulnerabilidades específicas relacionadas con este tema.Autonomía y ampliación del alcance en lo que respecta a la transparencia y la sensibilidad de los datos.Este sector está pasando de la supervisión de las herramientas de IA a la gestión directa de los propios agentes que las componen. Para todas las industrias, esto significa que los marcos de gobernanza sólidos son algo indispensable. Son la condición previa para que la IA se utilice de manera responsable y para que su valor a largo plazo pueda ser aprovechado. La misión del consejo de administración ya no consiste en mantenerse al día con la tecnología. Se trata, en realidad, de dar forma activa a la relación de la empresa con este tipo de sistemas autónomos, asegurando que el juicio humano y la rendición de cuentas estén presentes, y que estén incorporados en el diseño y operación de estos sistemas poderosos.

Los catalizadores y los riesgos: Cómo navegar en un entorno de cumplimiento normativo y competitivo en constante cambio

La visión de cara al futuro en materia de gobierno corporativo se caracteriza por dos tipos de presiones: el rápido cambio en las normas de cumplimiento y la necesidad estratégica de gestionar los riesgos asociados a la inteligencia artificial. Para los consejos de administración, la tarea ya no consiste simplemente en comprender la tecnología; también implica enfrentarse a una situación llena de desafíos legales y riesgos relacionados con la reputación de la empresa. Los factores que impulsan este proceso son claros y en constante aumento.

En primer lugar, el panorama regulatorio se está fragmentando y reformando a gran velocidad. El presidente Trump…Orden Ejecutivo de diciembre de 2025Esto indica que el gobierno federal está intentando consolidar la supervisión y contrarrestar el “sistema de regulaciones fragmentadas en 50 regímenes diferentes”. Sin embargo, este esfuerzo también representa un catalizador para los desafíos legales y políticos. Al mismo tiempo, las nuevas leyes estatales en Colorado y California ya están en vigor, lo que aumenta la complejidad de cumplimiento para cualquier empresa que opere en diferentes estados. Esto crea un entorno de alto riesgo, donde una supervisión inadecuada no se trata simplemente como un error operativo menor, sino como una causa directa de responsabilidades y errores estratégicos.

Por lo tanto, el principal riesgo financiero no proviene del hecho de que la IA no cumpla con sus promesas, sino del fracaso de los gobiernos corporativos en controlar los peligros que esta tecnología puede generar. Como se destaca en el memorando de EY, la orientación proporcionada por la junta directiva es clave para ayudar a las empresas a utilizar la IA para su crecimiento, manteniendo al mismo tiempo las habilidades necesarias y fomentando la rendición de cuentas. La alternativa es una serie de daños: escándalos debido a la desinformación generada por la IA, acciones legales contra algoritmos sesgados, o errores estratégicos debido a una mala evaluación de los riesgos. Estos no son solo hipótesis; son resultados concretos de juntas directivas que no han evolucionado en términos de gestión de riesgos.

Aquí es donde una gobernanza sólida se convierte en un verdadero beneficio competitivo. Las empresas que cuentan con marcos de gobierno eficaces están en mejor posición para aprovechar las oportunidades que ofrece la inteligencia artificial, al mismo tiempo que gestionan los riesgos asociados a esta tecnología. Pueden innovar con mayor confianza, sabiendo que sus estructuras de supervisión son capaces de manejar los desafíos relacionados con la transparencia y la auditoría de los agentes de inteligencia artificial. Además, tienen más posibilidades de cumplir con los requisitos legales y estratégicos establecidos por WilmerHale, donde la gobernanza responsable de la inteligencia artificial se ha convertido en una obligación fiduciaria. Por el contrario, aquellas empresas que no logran mantenerse al día enfrentan mayores costos de capital, mayor exposición a litigios y una menor capacidad para atraer y retener talento en una economía basada en la inteligencia artificial.

Para los inversores, los puntos clave que deben observarse son claros. Es necesario monitorear cómo la empresa responde a la orden ejecutiva federal y a las leyes estatales, para detectar si se trata de una planificación de cumplimiento proactiva, en lugar de reaccionaria. También es importante verificar si el consejo ha establecido métricas claras para la supervisión de la utilización de la inteligencia artificial, pasando de la mera concienciación a la rendición de cuentas. Además, es necesario evaluar los sacrificios estratégicos que se están haciendo: ¿la empresa prioriza la rapidez de implementación sobre la seguridad y la gobernanza, o busca construir una base sólida para generar valor a largo plazo? La capacidad del consejo para manejar este entorno cambiante de manera proactiva será el principal indicador de su resiliencia.

Comentarios



Add a public comment...
Sin comentarios

Aún no hay comentarios