sábado, febrero 14, 2026
InicioMundoInforme: AI Claude de Anthropic utilizada por el ejército de EE. UU....

Informe: AI Claude de Anthropic utilizada por el ejército de EE. UU. en operativo en Venezuela

Inteligencia Artificial en la Guerra: El Uso de Claude en la Operación Contra Maduro

Un reciente informe destaca cómo el modelo de inteligencia artificial Claude, desarrollado por Anthropic, fue utilizado en una arriesgada operación militar estadounidense para capturar a Nicolás Maduro en Venezuela. Este caso subraya la creciente integración de la tecnología en las estrategias de defensa.

Según el Wall Street Journal, la operación en Caracas resultó en un número alarmante de víctimas, con reportes de 83 fallecidos a manos del ejército venezolano. Este hecho plantea serias inquietudes sobre el uso de la inteligencia artificial en conflictos armados.

Claude: Potencial y Controversia

Anthropic, conocido por sus políticas que prohíben el uso violento de su tecnología, se enfrenta a una creciente presión pública y ética. Aún no está claro cómo exactamente se utilizó Claude, un sistema capaz de procesar documentos y pilotar drones autónomos, en la operación. La empresa se negó a confirmar su participación, recordando que cualquier uso de Claude debe cumplir con sus normas de uso.

El Papel del Departamento de Defensa de EE. UU.

El uso de Claude fue supuestamente facilitado a través de una colaboración con Palantir Technologies, un conocido contratista del Departamento de Defensa. A pesar de las solicitudes de aclaración, Palantir también optó por no realizar comentarios al respecto.

AI en el Arsenal Militar Global

El uso de inteligencia artificial en operaciones militares no es exclusivo de EE. UU. Otros países, como Israel, ya han implementado tecnologías autónomas en sus operaciones en Gaza. En este contexto, el Departamento de Defensa estadounidense ha utilizado IA para realizar ataques en Irak y Siria en los últimos años.

Inquietudes sobre la Ética

Las preocupaciones sobre el uso de IA en conflictos no son menores. Expertos advierten sobre los peligros de las decisiones automatizadas que podrían llevar a errores de identificación en el campo de batalla. La presión sobre las empresas de inteligencia artificial, como Anthropic, ha aumentado para que establezcan pautas claras sobre su implicación en el sector militar.

Regulación y Futuro de la Inteligencia Artificial

Dario Amodei, CEO de Anthropic, ha abogado por regulaciones que aseguren un uso ético de las tecnologías de IA, manifestando su preocupación sobre las operaciones autónomas letales. Estas declaraciones han generado fricciones con el Departamento de Defensa, cuya postura se centra en la necesidad de utilizar modelos que sean efectivos en el escenario de combate.

Por su parte, el Pentágono ha anunciado colaboraciones con diversas empresas de IA, incluyendo xAI de Elon Musk, y utiliza versiones personalizadas de sistemas de Google y OpenAI, abriendo un debate sobre la dirección futura de la inteligencia artificial en el ámbito militar.

RELATED ARTICLES
- Advertisment -

Most Popular

Recent Comments