La IA que ayudó a Estados Unidos a capturar a Nicolás Maduro ‘pide’ explicaciones al Pentágono

Luis Alfredo Ledezma
5 Min de Lectura
5 Min de Lectura
Nicolás Maduro ante de su primera audiencia en un tribunal de Nueva York en enero / Archivo

La revelación de que Claude, el modelo de inteligencia artificial de Anthropic, fue utilizado por el ejército estadounidense en la operación que culminó con la captura de Nicolás Maduro ha desencadenado una tormenta política, tecnológica y ética en Washington.  

De acuerdo con lo reseñado por The Hill, la empresa, que mantiene una estricta política de uso responsable, exigió explicaciones al Pentágono tras enterarse de que su tecnología habría sido empleada en un contexto militar que contradice sus lineamientos internos. 

LEA TAMBIÉN: FILTRAN LA MILLONARIA CIFRA QUE GASTÓ TRUMP PARA CAPTURAR A MADURO EN PLENO CORAZÓN DE CARACAS, Y SUS ALIANZAS CON OTROS PAÍSES

El episodio habría tensado una relación ya frágil entre la compañía y el Departamento de Guerra de los Estados Unidos, que incluso aparentemente puso en riesgo un contrato millonario ante la controversia sobre los límites de la IA en escenarios de conflicto. 

Anthropic es una de las empresas que, junto con Google, OpenAI y xAI, obtuvo en julio pasado un contrato de hasta 200 millones de dólares con el Departamento de Guerra.  

El acuerdo forma parte del impulso de la administración del presidente de los Estados Unidos, Donald Trump, para acelerar la adopción de inteligencia artificial en el ámbito militar.  

Sin embargo, la compañía insistió —según el medio— en que sus modelos no deben utilizarse para vigilancia masiva ni para el desarrollo de armas, dos áreas donde la frontera entre apoyo logístico y participación directa en operaciones ofensivas puede volverse difusa. 

OPERACIÓN RESOLUCIÓN ABSOLUTA 

La tensión escaló tras la operación en Venezuela el pasado 3 de enero, cuando fuerzas estadounidenses, apoyadas por sistemas de análisis de datos de Palantir, lograron capturar a Maduro y trasladarlo a Estados Unidos para enfrentar cargos por narcotráfico.  

Según reportes citados por The Wall Street Journal, Claude habría sido integrado a las plataformas de Palantir. En concreto, para procesar información crítica durante la redada en Caracas. 

En consecuencia, Anthropic sostiene que no le informaron de este uso específico y la implementación podría violar sus políticas internas. 

Expertos en ética tecnológica señalaron que este conflicto era previsible. Sarah Kreps, directora del Instituto de Política Tecnológica de Cornell Brooks, advirtió que el rápido crecimiento de empresas como Anthropic las expone a perder control sobre cómo se aplican sus modelos. Sobre todo, una vez integrados en sistemas empresariales o gubernamentales. 

Para Kreps, el caso ilustra un dilema recurrente en el sector. Incluso cuando una compañía no busca “avanzar rápido y romper cosas”, el ritmo de expansión puede llevar a escenarios donde las cosas se rompen de todos modos. 

Dijo que Anthropic ha estado «yendo en la dirección de la empresa, y eso, creo, los abre a estas preguntas de cómo las empresas están usando estos modelos, y hace que sea mucho más difícil mantener el control una vez que se han entregado estos modelos a ese tipo de uso a nivel empresarial». 

El estado de Florida anunció este lunes, 2 de febrero, que se avanza hacia una nueva reconfiguración de sus contenidos educativos con la propuesta de incluir la reciente captura de Nicolás Maduro en el currículo de primaria y secundaria.  
Maduro antes de su presentación en una Corte de Nueva York. / Fox News

RESPUESTA DEL PENTÁGONO  

El Pentágono, por su parte, adoptó una postura firme por medio de su portavoz, Sean Parnell. El mismo afirmó que la prioridad del Departamento de Guerra es garantizar que las tropas estadounidenses cuenten con todas las herramientas necesarias para ganar cualquier batalla.  

Aunque evitó confirmar detalles operativos, sí reconoció que la relación con Anthropic está bajo revisión. Esto, debido a la disputa sobre las políticas de uso de la empresa. 

“Nuestra nación requiere que nuestros aliados estén dispuestos a ayudar a nuestros combatientes a ganar cualquier batalla. En última instancia, se trata de nuestras tropas y de la seguridad del pueblo estadounidense”, declaró el funcionario. 

Mientras tanto, la plataforma militar GenAI.mil continúa integrando modelos de IA de otras compañías. Google y xAI se sumaron en diciembre, y OpenAI anunció recientemente que ChatGPT también estará disponible para aplicaciones militares. 

La ausencia de Anthropic en esta plataforma marcaría el distanciamiento creciente entre la empresa y el Pentágono. Se trata de un contraste notable frente al entusiasmo inicial del Departamento de Guerra por su tecnología. 

Por ahora, la disputa sigue abierta. Anthropic busca aclarar cómo y bajo qué condiciones su modelo fue utilizado. Por su parte, el Pentágono evalúa si la empresa puede seguir siendo un socio confiable en su estrategia de modernización tecnológica.  

Compartir este artículo