Xataka – Anthropic se queda sola en su lucha contra el Pentágono: Google les ha dado permiso para usar su IA en operaciones clasificadas
Google ha dado permiso al Pentágono que les permite usar sus modelos de IA en operaciones militares clasificadas, sumándose así a OpenAI y xAI que ya habían firmado contratos similares previamente. Las grandes de la IA se están plegando al aparato militar estadounidense. Anthropic se queda sola.
Qué ha pasado. Google firmó un acuerdo con el departamento de defensa el año pasado por valor de 200 millones de dólares. Este contrato permitía el uso de la infraestructura de Google Cloud y herramientas IA. La novedad ahora es que Google les ha dado permiso para que el Pentágono use los modelos de IA de la firma en sistemas clasificados, para «cualquier propósito gubernamental legítimo», según el New York Times.
Por qué es importante. La decisión de Google de permitir al Pentágono usar su tecnología contrasta con el caso de Anthropic, que acabó siendo incluida en la lista negra por por negarse a eliminar salvaguardas contra armas autónomas y vigilancia doméstica. Esto sentó un precedente: aceptar las condiciones o quedar excluida del mercado gubernamental.
Opacidad. En declaraciones al New York Times, una portavoz de Google afirmó que la empresa mantiene su compromiso «de que la IA no debe utilizarse para la vigilancia masiva interna ni para armamento autónomo sin la supervisión humana adecuada». Sin embargo, no han dado detalles concretos del acuerdo y el hecho de que vaya a usarse en “trabajo clasificado” nos hace preguntarnos si Google mantiene realmente cierto control o si se trata simplemente de una afirmación vacía.
Empleados en contra. Al menos 560 empleados de Google han firmado una carta abierta a su CEO, Sundar Pichai, en la que le piden que rechace el acuerdo. Los empleados argumentan que la IA debería estar al servicio de la humanidad, no para fines militares que incluyen armas autónomas letales y vigilancia masiva. «La única manera de garantizar que Google no se asocie con tales daños es rechazar cualquier carga de trabajo clasificada. De lo contrario, tales usos podrían producirse sin nuestro conocimiento ni capacidad para impedirlos».
Nuevos principios. La resistencia interna en Google al uso de IA en contextos militares es algo que ya viene de lejos. En 2018, varios empleados dimitieron en protesta a la participación de Google en Project Maven, el programa militar que usaba IA para identificar personas y objetos y mejorar así los ataques con drones. Google acabó saliendo del proyecto y se comprometió a no trabajar en IA para armas, pero en 2025 esa cláusula desapareció de sus principios de IA. Las cosas han cambiado radicalmente: hoy, las big tech están más alineadas con el ejército estadounidense que nunca antes.
Imagen | Xataka
En Xataka | Anthropic afrontaba un largo invierno en la «lista negra» de EEUU: la justicia le ha salvado sobre la bocina
–
La noticia
Anthropic se queda sola en su lucha contra el Pentágono: Google les ha dado permiso para usar su IA en operaciones clasificadas
fue publicada originalmente en
Xataka
por
Amparo Babiloni
.

