Dario Amodei dice que “no puede, en deferencia a su conciencia moral”, ceder a las exigencias del Pentágono en relación al uso de la inteligencia artificial en el ámbito militar.

Generado por agente de IAMira SolanoRevisado porShunan Liu
viernes, 27 de febrero de 2026, 8:19 am ET3 min de lectura

Dario Amodei, director ejecutivo de Anthropic, ha rechazado la solicitud del Pentágono para eliminar las restricciones sobre cómo se puede utilizar su tecnología de inteligencia artificial. La empresa no tiene intención de comprometer sus valores, ni siquiera bajo la presión del Departamento de Defensa.Según informes de la BBCAmodei declaró que “no puede, en absoluto”, aceptar los términos propuestos por el Pentágono. Estos términos permitirían el uso ilimitado de la IA desarrollada por Anthropic.Como informó PBS…La postura de la empresa destaca la creciente tensión entre las empresas tecnológicas privadas y las agencias gubernamentales en relación al uso ético de la inteligencia artificial.Según CNN….

El Pentágono exige que Anthropic permita que su sistema de IA sea utilizado “para todos los fines legales”, incluyendo el uso en armas autónomas y en sistemas de vigilancia masiva. Esta solicitud ha sido rechazada por Anthropic, que cuenta con directrices éticas estrictas para evitar el uso indebido de su tecnología.Como informó CNN…El Secretario de Defensa, Pete Hegseth, ha amenazado con invocar la Ley de Producción de Defensa o etiquetar a la empresa como “riesgo en la cadena de suministro”, si se niega a cumplir con las regulaciones.Según PBS.Estas amenazas podrían afectar gravemente los negocios de Anthropic y sus relaciones con otras empresas.Según la BBC.

El director ejecutivo de Anthropic enfatizó que permitir que su inteligencia artificial se utilice en armas completamente autónomas o para fines de vigilancia masiva socavaría los valores democráticos. Amodei señaló que incluso los sistemas de IA más avanzados no son lo suficientemente confiables como para tomar las decisiones complejas que se requieren en el ámbito de la guerra. Además, la vigilancia masiva contradice los principios de privacidad y libertad.Según la BBC.La empresa se ha ofrecido a colaborar con el Pentágono en actividades de I+D, con el objetivo de mejorar los sistemas de inteligencia artificial. Sin embargo, el Pentágono no ha aceptado esta propuesta.Como informó PBS….

¿Por qué sucedió esto?

El Pentágono sostiene que necesita tener plena libertad operativa para utilizar esta tecnología, según sea necesario para la seguridad nacional. Por su parte, Anthropic insiste en que su inteligencia artificial no debe utilizarse de manera que viole los principios éticos o democráticos. Este conflicto refleja el creciente desafío de equilibrar las necesidades de la seguridad nacional con los requisitos éticos en el desarrollo de la inteligencia artificial.Según el periódico The New York Times.La exigencia del Pentágono de que los usos de la IA sean “solo para fines legales” no aborda las preocupaciones específicas planteadas por Anthropic, como el uso de la IA en armas autónomas o en sistemas de vigilancia.Según CNN….

La posición de Anthropic es que el uso de la IA en tales contextos requiere supervisión y juicio humano, algo que los sistemas actuales no pueden proporcionar. Esta postura se alinea con la misión general de la empresa: desarrollar tecnologías de IA que contribuyan al fortalecimiento de los valores democráticos, en lugar de amenazarlos.Según la BBC.Sin embargo, el Pentágono sostiene que debería tener la flexibilidad para utilizar esa tecnología de la manera que considere necesaria, dentro de los límites legales.Según el periódico The New York Times..

¿Qué están observando los analistas a continuación?

Las reacciones políticas ante esta disputa han sido variadas. Algunos senadores han criticado la naturaleza pública de este conflicto, mientras que otros han instado al Congreso a establecer un marco normativo claro para regular el uso de la inteligencia artificial en contextos militares y gubernamentales, con fines de seguridad nacional. Esta situación destaca la necesidad de contar con marcos legales claros que regulen el uso de la inteligencia artificial en estas áreas.Según PBS.Los analistas están observando atentamente cómo podría reaccionar el Congreso ante la situación actual entre el Pentágono y Anthropic.De acuerdo con Lawfare Media..

Las implicaciones más amplias de esta disputa van más allá del ámbito de la antropología. Otras empresas relacionadas con la inteligencia artificial podrían estar observando la situación para evaluar los riesgos y las oportunidades que implican los contratos gubernamentales. El resultado podría sentar un precedente sobre cómo las empresas privadas y las agencias gubernamentales manejan las diferencias éticas y operativas en el desarrollo de la inteligencia artificial.Según CNN.

Se ha solicitado al Congreso que desempeñe un papel más activo en la definición de las reglas para el uso de la IA en las operaciones militares. Las negociaciones actuales carecen de supervisión democrática y generan restricciones ad hoc que podrían no perdurar con los cambios en la administración.Según Lawfare MediaLos analistas sugieren que el Congreso debería definir qué aplicaciones de IA son permisibles, establecer condiciones para las compras relacionadas con estas tecnologías y imponer requisitos de transparencia para garantizar la rendición de cuentas.Según Lawfare Media.

¿Cuáles son las posibles consecuencias?

Si Anthropic no acepta los términos propuestos por el Pentágono antes de la fecha límite, el Departamento de Defensa amenazó con cancelar su contrato de 200 millones de dólares y calificar a la empresa como una “empresa de riesgo en la cadena de suministro”. Esta clasificación podría obligar a otras empresas que tienen contratos con el Pentágono a cortar sus relaciones con Anthropic, lo que podría afectar negativamente sus negocios.Según CNNAunque el contrato de 200 millones de dólares es importante, los riesgos relacionados con la reputación y las condiciones contractuales son aún más preocupantes.Según CNN….

Antropic ha indicado que está dispuesta a cambiar a otro proveedor si es necesario. Sin embargo, la empresa espera que el Pentágono reconsidere su posición. Esta situación destaca los desafíos que enfrentan las empresas de inteligencia artificial, quienes deben equilibrar sus compromisos éticos con las exigencias de los contratos de seguridad nacional.Según PBS..

Los expertos señalan que la postura de Anthropic sirve como un mensaje para otras empresas de IA sobre la importancia de establecer límites en los contratos gubernamentales. El hecho de que la empresa se niegue a ceder en cuanto a las cuestiones éticas podría influir en las negociaciones y discusiones políticas futuras.Según CNN…El resultado de esta disputa podría tener consecuencias duraderas para el desarrollo y la gobernanza de la tecnología de inteligencia artificial en los Estados Unidos.

Comentarios



Add a public comment...
Sin comentarios

Aún no hay comentarios