Pentágono habría usado IA “Claude” en operativo para capturar a Nicolás Maduro en Venezuela
El uso de inteligencia artificial en este caso la IA «Claude» vuelve a ser noticia en operaciones militares, esta vez volvió a situarse en el centro del debate internacional luego de que medios estadounidenses informaran que el Pentágono habría utilizado la herramienta de IA “Claude”, desarrollada por la empresa Anthropic, durante un operativo en Caracas que terminó con la captura del ex gobernante venezolano Nicolás Maduro.
Según reportes de The Wall Street Journal y Fox News, la tecnología se habría empleado como parte de los sistemas de apoyo utilizados por fuerzas especiales estadounidenses, lo que ha generado cuestionamientos sobre la continuidad de un contrato con el Departamento de Defensa valorado en hasta 200 millones de dólares.

Operativo en Caracas y traslado a Estados Unidos
De acuerdo con la información publicada por ambos medios, la operación fue ejecutada por fuerzas especiales de Estados Unidos y culminó con la captura de Maduro y su esposa en territorio venezolano. Posteriormente, ambos fueron trasladados a Estados Unidos para enfrentar cargos por narcotráfico.
En ese contexto, la herramienta de IA habría sido utilizada a través de un acuerdo con la empresa Palantir Technologies, cuyos sistemas son empleados con frecuencia por el Departamento de Defensa y agencias federales. Sin embargo, ni Anthropic ni el Pentágono confirmaron oficialmente el papel de la tecnología en el operativo, citando protocolos de confidencialidad.
Un portavoz de Anthropic declaró a Fox News Digital y The Wall Street Journal: “No podemos comentar si Claude, o cualquier otro modelo de IA, fue utilizado en alguna operación específica, clasificada o no”.
El vocero añadió que cualquier uso de la herramienta debe ajustarse a las políticas de la compañía, las cuales prohíben expresamente facilitar violencia, desarrollar armas o ejecutar tareas de vigilancia.
La posible participación de la tecnología en operaciones militares ha generado fricciones entre la empresa y la administración estadounidense. Funcionarios citados por The Wall Street Journal han evaluado la posibilidad de poner fin al contrato con Anthropic debido a su postura a favor de regulaciones más estrictas para el uso de inteligencia artificial.

Según fuentes mencionadas por los medios, ejecutivos de la empresa han expresado preocupación por el uso de su tecnología en misiones letales autónomas o en tareas de vigilancia doméstica.
El director ejecutivo de Anthropic, Dario Amodei, se ha manifestado públicamente a favor de establecer límites regulatorios para la IA con el objetivo de evitar daños sociales.
Debate ético y competencia tecnológica
La incorporación de herramientas de inteligencia artificial en operaciones de seguridad nacional representa un impulso de legitimidad para el sector, pero también ha abierto cuestionamientos éticos sobre el desarrollo y uso de estas tecnologías.
Informes citados por los medios indican que algunas empresas han enfrentado protestas internas de empleados preocupados por el uso militar de la IA y por el equilibrio entre crecimiento comercial y desarrollo responsable.

En paralelo, la industria tecnológica mantiene una fuerte competencia por contratos de defensa. Un consorcio que incluye a Google y OpenAI, con la plataforma Gemini, fue anunciado como apoyo para personal militar en tareas de análisis y generación de reportes.
Durante una conferencia en enero, el secretario de Defensa, Pete Hegseth, afirmó: “No emplearemos modelos de IA que no permitan librar guerras”.
Políticas internas y futuro de la IA militar
Las políticas de Anthropic establecen que su herramienta Claude no debe utilizarse en acciones ofensivas, desarrollo de armamento ni vigilancia sobre la población. No obstante, la presión geopolítica y tecnológica ha intensificado el debate sobre el papel de la IA en conflictos armados.
El contrato entre Anthropic y el Departamento de Defensa, que podría alcanzar los 200 millones de dólares, fue aprobado el verano pasado. Según un funcionario citado por Fox News Digital, durante la incursión en Venezuela resultaron heridos siete militares estadounidenses.
Hasta el momento, no existe confirmación oficial del uso de la inteligencia artificial en la operación, y las versiones disponibles provienen de fuentes citadas por medios estadounidenses.





