El Pentágono ha declarado a Anthropic, la empresa creadora de los modelos de inteligencia artificial Claude, como un «riesgo para la cadena de suministro de la seguridad nacional», un término habitualmente reservado para adversarios extranjeros. Esta designación, emitida a finales de febrero de 2026, culmina con un contrato militar de 200 millones de dólares y ordena la eliminación progresiva de su tecnología de los sistemas del Departamento de Defensa en un plazo de seis meses. La decisión, que sigue a una orden ejecutiva de la Casa Blanca, marca un punto de inflexión en la relación entre el sector tecnológico estadounidense y el gobierno federal, y envía ondas de choque a través de la industria empresarial global.
Anthropic, con sede en San Francisco, se había consolidado en los últimos meses como uno de los actores dominantes en el panorama de la IA empresarial. Su servicio Claude Code, enfocado en programación, alcanzó una tasa de crecimiento anual recurrente superior a 2.500 millones de dólares en menos de un año. A principios de mes, la compañía cerró una ronda de financiación Serie G por 30.000 millones de dólares, lo que situó su valoración en 380.000 millones. Modelos como Claude son reconocidos por su rendimiento en benchmarks y su capacidad para tareas complejas, desde análisis financiero hasta gestión de operaciones, y compañías como Salesforce, Spotify o Novo Nordisk reportan mejoras significativas en productividad gracias a su implementación.
El núcleo de la disputa reside en un desacuerdo sobre el «uso lícitototal». El Pentágono exigía acceso sin restricciones a Claude para cualquier misión considerada legal bajo la ley estadounidense. El CEO de Anthropic, Dario Amodei, se negó a aceptar dos condicionamientos específicos: la utilización de sus modelos para vigilancia masiva de ciudadanos estadounidenses y para armas letales completamente autónomas. Amodei argumentó que estas «líneas rojas» son necesarias para evitar «escaladas no deseadas o fallos en la misión». Por su parte, el Secretario de Guerra calificó la negativa de «arrogancia y traición», precipitando la ruptura contractual y la citada designación de riesgo.
La exclusión de Anthropic del ecosistema de defensa ha generado un vacío rápidamente ocupado por sus competidores directos. Sam Altman, director ejecutivo de OpenAI, anunció un acuerdo con el Pentágono que, según informes, incorpora principios de seguridad similares a los defendidos por Anthropic, aunque los detalles contractuales exactos aún no están claros. Previamente, OpenAI había revelado una inversión de 110.000 millones de dólares liderada por Amazon, Nvidia y SoftBank. Por su parte, Elon Musk confirmó que su empresa xAI permitirá el uso de Grok en sistemas de alta clasificación, tras aceptar el estándar de «uso lícito total» rechazado por Anthropic, aunque comentarios de empleados militares sugieren un recibimiento inicial moderado.
Mientras Anthropic ha manifestado su intención de impugnar legalmente la designación y ha instado a sus clientes comerciales a mantener el uso de sus productos excluyendo trabajos para defensa, las repercusiones para el sector empresarial son evidentes. La lección central para los responsables de tecnología en organizaciones de cualquier tamaño es la imperiosa necesidad de la interoperabilidad entre modelos de IA. Depender de un único proveedor para flujos de trabajo automatizados o pilas tecnológicas orientadas al cliente introduce una vulnerabilidad crítica. Si un cliente institucional, como una agencia gubernamental, exige o prohíbe el uso de un modelo específico como condición contractual, una arquitectura rígida puede impedir la adaptación en un plazo corto.
La solución estratégica no pasa necesariamente por abandonar Claude, que sigue siendo un modelo de vanguardia en razonamiento y código, sino por establecer un «estado de espera activo». Esto implica implementar capas de orquestación y formatos de instrucción estandarizados que permitan alternar entre Claude, GPT-4o y Gemini 1.5 Pro con una degradación de rendimiento mínima. La incapacidad de cambiar de proveedor en un plazo de 24 horas señala una cadena de suministro tecnológica frágil.
La fragmentación del mercado estágenerando coberturas de riesgo inesperadas. Las acciones de Google Alphabet subieron tras la noticia,favoreciendo a Gemini. Sin embargo, alternativas de código abierto y procedentes de otras jurisdicciones merecen atención. Empresas como Airbnb han pivotado hacia modelos chinos de código abierto, como Qwen de Alibaba, para funciones de servicio al cliente, motivadas por coste y flexibilidad. Si bien estos modelos conllevan riesgos geopolíticos distintos, ofrecen una vía de diversificación para algunas compañías.
Para la mayoría, la opción más viable es el alojamiento interno mediante modelos de código abierto de desarrollo estadounidense o internacional. OpenAI ha lanzado su serie GPT-OSS, IBM cuenta con Granite, Meta con Llama, y existen opciones de Arcee, AI2 o Liquid AI. Herramientas de benchmarking externas, como Artificial Analysis o Pinchbench, permiten evaluar el rendimiento y coste de estos modelos para cargas de trabajo específicas. Al ejecutar modelos en infraestructura propia o en una nube privada y afinarlos con datos propios, las empresas se blindan contra las fluctuaciones en los términos de servicio y las listas negras federales. Incluso un modelo secundario, ligeramente inferior en pruebas estandarizadas, listo para escalar, evita un apagón total si el proveedor principal es declarado enemigo del Estado. Diversificar la cadena de suministro de IA es, simplemente, una prudentepráctica de gestión.
El conflicto redefine el concepto de diligencia debida para los líderes empresariales. Cualquier organización que mantenga o aspire a contratos con agencias federales debe poder certificar que sus productos no dependen de un único proveedor de modelos prohibido, incluso si dicha designación es imprevista. La lección es la redundancia estratégica: la era de la IA prometía democratizar la inteligencia, pero asiste a una batalla clásica por el control de la adquisición de defensa y el poder ejecutivo. Asegurar proveedores de respaldo, construir para la portabilidad y evitar que los «agentes» automatizados se conviertan en daños colaterales en guerras regulatorias entre gobiernos y corporaciones es ahora una necesidad operativa. La interoperabilidad de modelos ya no es un lujo técnico, sino el nuevo requisito indispensable para la supervivencia empresarial en un entorno geopolítico volátil.



GIPHY App Key not set. Please check settings