Claude y Proyecto Maven: así explota EEUU la inteligencia artificial para arrasar objetivos iraníes en tiempo y precisión de récord
2026-03-16 - 05:23
Si los drones han sido la contribución de la guerra de Ucrania al inventario de la industria armamentística, la de la presente guerra de Irán parece vaya a ser el uso de la inteligencia artificial. Estados Unidos ha confirmado que, efectivamente, está utilizando diversas herramientas de IA en su guerra contra el régimen de los ayatolás. Brad Cooper, jefe del Comando Central de EEUU, declaró el miércoles que la IA estaba ayudando a los soldados a procesar una gran cantidad de datos. "Estamos utilizando diversas herramientas avanzadas de IA. Nos ayudan a analizar grandes cantidades de datos en segundos para que nuestros líderes puedan distinguir entre el ruido y tomar decisiones más inteligentes con mayor rapidez que la reacción del enemigo", declaró Cooper en un mensaje de vídeo. El jefe del comando ha querido enfatizar que los seres humanos toman las decisiones finales sobre los objetivos. "Los humanos siempre tomarán las decisiones finales sobre qué disparar, qué no disparar y cuándo hacerlo, pero las herramientas avanzadas de IA pueden convertir procesos que solían tomar horas, e incluso días, en segundos", dijo Cooper. EEUU utiliza Claude... pero dejará de hacerlo Contra Irán, el ejército estadounidense está utilizando el modelo de inteligencia artificial Claude, de la empresa Anthropic. Lo está usando a pesar de la prohibición gubernamental de esta tecnología, anunciada tras una disputa con el Pentágono la semana pasada. El conflicto se centró en el empeño de Anthropic para establecer salvaguardas que impidan explícitamente que el ejército pueda utilizar Claude para la vigilancia masiva de ciudadanos estadounidenses o para alimentar armas totalmente autónomas. Los humanos siempre tomarán las decisiones finales sobre qué disparar, qué no disparar y cuándo hacerlo" El Pentágono exigió la posibilidad de utilizar a Claude para "todos los fines legales" y defendió que las preocupaciones de Anthropic sobre su uso no eran relevantes. Esgrimen los militares estadounidenses que ya es ilegal que puedan hacer una vigilancia masiva de los estadounidenses, y las políticas internas restringen el uso de armas totalmente autónomas por parte de las fuerzas armadas. El director ejecutivo de Anthropic, Dario Amodei, declaró que Anthropic había buscado establecer límites claros en el uso de su tecnología por parte del gobierno porque "creemos que cruzar esos límites es contrario a los valores estadounidenses, y queríamos defenderlos". Dice Amodei que "disentir con el gobierno es lo más estadounidense del mundo... Y somos patriotas. En todo lo que hemos hecho aquí, hemos defendido los valores de este país". El secretario de Defensa, Pete Hegseth, busca situar la inteligencia artificial en el centro de las operaciones de combate del ejército de EEUU. Sin embargo, su departamento ha señalado oficialmente a Anthropic como un riesgo para la cadena de suministro y la empresa ha respondido demandando a la administración estadounidense. El presidente Donald Trump ordenó a las agencias federales que dejen de usar la tecnología de Anthropic, y les dio seis meses para su eliminación gradual. Pero el Pentágono podría tardar tres meses o más en reemplazar las capacidades de Claude con otra plataforma de IA, según informa Defense One, web de noticias sobre seguridad nacional. Proyecto Maven, el antecedente Pero el Pentágono lleva ya unos años utilizando tecnología IA o pre-IA. Lo ha hecho a través del Proyecto Maven. Entre otras funciones, implica el uso del aprendizaje automático y la fusión de datos para procesar informaciones de muchas fuentes, identificar objetivos potenciales, mostrar información a través de una interfaz de usuario y transmitir decisiones humanas a los sistemas de armas. Maven comenzó en 2017 y ya se ha utilizado en varios conflictos militares en los que ha estado involucrado EEUU. El primero, en 2021, fue la evacuación de Afganistán. Luego, en 2022, durante la invasión rusa de Ucrania, EEUU usó inteligencia satelital y el sistema inteligente Maven para proporcionar la ubicación de equipos rusos a las fuerzas ucranianas. En febrero de 2024, se utilizó para delimitar objetivos para ataques aéreos en Irak y Siria. También se utilizó para localizar lanzacohetes en Yemen y buques en el Mar Rojo. Pese a la llegada de Claude, Maven ha seguido siendo útil en la actual guerra contra Irán. La imprescindible ayuda de Palantir Los militares estadounidenses hacen uso de la IA a través de un intermediario. Es Palantir Technologies, empresa fundada en 2003 por un grupo de emprendedores e inversores. Entre ellos está Peter Thiel, miembro de la llamada "mafia de PayPal" y uno de los primeros miembros de la élite de Silicon Valley en apoyar a Trump cuando se convirtió en candidato presidencial en 2016. Palantir no vende datos, sino la capacidad de darles sentido. "Sí, nuestra tecnología se usa para matar a gente", dijo su CEO y cofundador, Alex Karp, en una entrevista con Axios. Su software ha sido acusado de violaciones a los derechos humanos por Amnistía Internacional y otros grupos defensores de la privacidad y los derechos de las personas. Lo cierto es que mientras el Pentágono busca un recambio para Claude, Palantir lo sigue utilizando. Lo dijo Karp esta semana: "El Departamento de Guerra está planeando eliminar gradualmente a Anthropic; actualmente, no está eliminado". En declaraciones a la CNBC aseguró que sus productos "están integrados con Anthropic, y en el futuro, probablemente se integrarán con otros modelos de lenguaje de gran tamaño". La administración militar de Trump ha buscado un mayor acceso a herramientas tecnológicas para uso militar. Sin embargo, entre los expertos en derechos humanos crece la preocupación por el uso de la inteligencia artificial en la guerra. Dudas, salvaguardas y transparencia Persiste la preocupación de que depender de la IA para ciertas operaciones o la toma de decisiones pueda provocar errores en operaciones militares. El Departamento de Defensa y empresas como Anthropic, pero también OpenAI, han declarado públicamente que los sistemas de IA actuales no deberían poder matar sin la aprobación humana. A medida que la IA adquiere un papel más importante en el campo de batalla, los legisladores exigen una mayor atención a las protecciones que deben regir su uso y una mayor transparencia sobre el grado de control que se le otorga a esta tecnología. Miembros del Congreso de EEUU exigen salvaguardias y una mayor supervisión del uso de esta tecnología en la guerra. "Necesitamos una revisión completa e imparcial para determinar si la IA ya ha perjudicado o puesto en peligro vidas en la guerra con Irán", declaró a NBC News la representante Jill Tokuda, demócrata por Hawái y miembro del Comité de Servicios Armados de la Cámara de Representantes. "El juicio humano debe seguir siendo fundamental en las decisiones de vida o muerte", aseguró. Preocupa el uso de estas herramientas por parte de las fuerzas armadas sin salvaguardas claras para garantizar que los humanos sigan participando en las decisiones de vida o muerte en el campo de batalla. "Las herramientas de IA no son 100% fiables; pueden fallar de maneras sutiles y, sin embargo, los operadores siguen confiando excesivamente en ellas", declaró Sara Jacobs, demócrata por California en la Cámara de Representantes.