Silicon Valley planta cara al Pentágono por el control de la inteligencia artificial
2026-03-15 - 08:13
A principios de marzo, Anthropic, una de las startup de inteligencia artificial (IA) más potentes de Silicon Valley, demandó al Gobierno estadounidense después de que el Departamento de Defensa la vetara en varios proyectos tecnológicos vinculados a seguridad nacional. El Pentágono la había clasificado como "riesgo para la seguridad en la cadena de suministro", una etiqueta que normalmente se reserva para empresas extranjeras consideradas vulnerables a interferencias o sabotaje. Pero Anthropic no es una empresa extranjera. Es una empresa estadounidense. Fundada en California. Y respaldada por algunos de los mayores inversores tecnológicos del planeta. Hasta hace poco era, de hecho, un socio tecnológico del propio Pentágono. Entonces, ¿qué ha pasado exactamente? Militarización de Silicon Valley Durante décadas el ejército estadounidense dependió casi exclusivamente de los grandes contratistas tradicionales de defensa. Empresas como Lockheed Martin, Raytheon o Northrop Grumman dominaban el sector. Construían cazas, submarinos, satélites, radares o sistemas de misiles. Silicon Valley operaba en otro mundo. Las grandes empresas tecnológicas construían ordenadores personales, software empresarial o, más tarde, teléfonos móviles, plataformas digitales y servicios en la nube. Pero la naturaleza de la guerra ha cambiado. En los conflictos contemporáneos, la ventaja militar depende cada vez más de la capacidad para procesar grandes cantidades de datos en tiempo real: imágenes satelitales, vídeo de drones, señales de radar, comunicaciones interceptadas o información logística. Y toda esa información sirve de poco si no se puede interpretar a tiempo. Y ahí es donde Silicon Valley empezó a volverse imprescindible. Para gestionar ese flujo constante de datos, el Pentágono comenzó a buscar nuevas alianzas con empresas tecnológicas capaces de desarrollar herramientas de análisis masivo. Una de las primeras en ocupar ese espacio fue Palantir. Fundada en 2003 con el apoyo de Peter Thiel, Palantir desarrolló software diseñado para integrar grandes bases de datos y detectar patrones dentro de información compleja, una herramienta especialmente útil para agencias de inteligencia. Hoy el sector público sigue siendo el núcleo de su negocio: en 2024 más del 54 % de los ingresos de Palantir procedían de contratos gubernamentales, muchos de ellos vinculados a defensa e inteligencia. Algunos de esos contratos son enormes. El ejército estadounidense adjudicó en 2025 a Palantir un acuerdo empresarial de análisis de datos valorado en aproximadamente 10.000 millones de dólares a diez años. Palantir representa el modelo de empresa tecnológica que ha decidido trabajar abiertamente con el Estado. Pero no todas las compañías del sector ven esa relación de la misma forma. La nueva generación de empresas de IA ha introducido otra visión dentro del ecosistema tecnológico. Anthropic, creadora del modelo Claude, firmó en 2025 un contrato de aproximadamente 200 millones de dólares con el Departamento de Defensa para adaptar sus modelos a usos militares, incluyendo el procesamiento de información clasificada. Sin embargo, la empresa ha defendido desde el principio que el desarrollo de estos sistemas requiere establecer límites claros sobre determinados usos. Un debate ético Las herramientas de IA pueden analizar grandes cantidades de información, identificar patrones complejos y generar respuestas o predicciones a partir de esos datos. Para muchas empresas privadas, estas capacidades sirven para mejorar procesos internos o automatizar tareas. Para los ejércitos, en cambio, estas mismas herramientas pueden convertirse en sistemas de apoyo a la decisión en operaciones militares. Y ahí surge el debate. ¿Hasta dónde deben llegar esas aplicaciones? Según distintos informes publicados en los últimos meses, la tensión entre Anthropic y las autoridades federales comenzó cuando la empresa intentó imponer ciertas restricciones sobre cómo podían utilizarse sus modelos dentro de proyectos vinculados al ámbito militar. El Pentágono considera que esas limitaciones son incompatibles con las necesidades operativas de defensa. Un alto responsable tecnológico del Pentágono llegó a describir la situación como "totalmente absurda", criticando que una empresa estadounidense se niegue a permitir que su IA respalde misiones de seguridad nacional. A su vez, Anthropic ha respondido con una demanda judicial. El caso ahora está en manos de los tribunales federales, pero el conflicto ya ha tenido un efecto inmediato en Washington. Ha puesto sobre la mesa una discusión que hasta hace poco se movía en círculos relativamente discretos dentro del sector tecnológico. ¿Quién debe decidir cómo se utilizan esas tecnologías? Para el Pentágono la respuesta es clara. Estados Unidos necesita incorporar estas tecnologías lo más rápido posible para mantener su ventaja militar. Las guerras modernas dependen cada vez más de la capacidad para procesar información antes que el adversario. Para algunas empresas tecnológicas la cuestión es más compleja.