in

Juez suspende prohibición del Pentágono y respalda a Anthropic

La disputa entre Anthropic y el Departamento de Defensa de Estados Unidos ha traspasado los límites de la industria tecnológica para convertirse en un referente sobre cómo los conflictos éticos en inteligencia artificial pueden redefinir las reglas del juego para sectores aparentemente desconectados, como el de la moda. Un fallo judicial provisional que favorece a la empresa desarrolladora de Claude ha desatado un intenso debate sobre la tensión entre la innovación tecnológica, los principios corporativos y el poder del gobierno para condicionar el mercado.

El origen del enfrentamiento se remonta a una orden interna emitida por el entonces secretario de Defensa, Pete Hegseth, a principios de año. La directiva exigía que todos los contratos de servicios de IA incluyeran cláusulas que permitieran “cualquier uso legal” por parte de las fuerzas armadas, un planteamiento que chocaba frontalmente con las “líneas rojas” establecidas por Anthropic. La compañía, conocida por su cautela en el desarrollo de modelos seguros, rechazaba categóricamente que su tecnología se destinara a armas autónomas letales o a sistemas de vigilancia masiva en territorio nacional. Tras semanas de negociaciones infructuosas, el Pentágono incluyó a Anthropic en una lista de “riesgos para la cadena de suministro”, una designación habitualmente reservada a empresas extranjeras sospechosas de vínculos con adversarios internacionales.

La jueza Rita F. Lin, del distrito norte de California, consideró en su auto que esta medida constituye una clara represalia por el ejercicio de un derecho fundamental. “El registro del Departamento muestra que se designó a Anthropic como riesgo debido a su ‘actitud hostil a través de la prensa’”, señala la resolución, que entrará en efecto en siete días. “Castigar a una empresa por someter a escrutinio público la posición contractual del gobierno es un clásico ejemplo de retaliation ilegal amparada en la Primera Enmienda”. Este pronunciamiento judicial, aunque temporal, sienta un precedente notable: el gobierno no puede penalizar a un contratista por insistence en unas condiciones éticas de uso, siempre que, como reconoce la propia jueza, el Departamento sea libre de buscar otro proveedor más “permisivo”.

El potencial económico del litigio es colosal. Según los documentos presentados por Anthropic, la designación ha generado confusión entre decenas de socios comerciales, algunos de los cuales han contactado a la empresa para evaluar su exposición a posibles terminaciones de contrato. La compañía estima que, en el peor escenario, podrían verse comprometidos ingresos que oscilan entre cientos de millones y varios miles de millones de dólares. Este dato resuena especialmente en industrias como la de la moda, donde las alianzas tecnológicas para personalización, logística o diseño asistido por IA son cada vez más críticas. Si un gigante estatal puede alterar drásticamente el flujo de negocio de una firma tecnológica por motivos que trascienden la capacidad técnica del producto, cualquier sector dependiente de esos servicios deberá reevaluar sus riesgos operativos y contractuales.

Durante la audiencia, la juezaLin fue particularmente incisiva al interrogar a los abogados del Pentágono sobre los límites reales de la prohibición. Preguntó, por ejemplo, si un contratista que provee papel higiénico a las bases militares podría ser sancionado por usar Claude en sus oficinas, a lo que el representante gubernamental respondió afirmativamente solo para trabajos ajenos al Departamento. Sin embargo, ante la pregunta sobre si un proveedor de servicios informáticos no vinculados a sistemas de seguridad nacional enfrentaría la misma medida, la respuesta fue evasiva. Esta línea de interrogatorio desveló una ambigüedad intencionada en la comunicación oficial: un tuit del exsecretario Hegseth que prohibía “cualquier actividad comercial” con Anthropic fue posteriormente matizado por el Departamento, una contradicción que la jueza calificó de confusa y potencialmente extralimitada.

El caso también ha puesto sobre la mesa un debate más profundo: ¿hasta qué punto el gobierno puede imponer condiciones de uso a las tecnologías que adquiere? Anthropic sostiene que su modelo, una vez entregado, ya no está bajo su control operativo, desmontando la teoría del Pentágono sobre un posible “sabotaje” durante operaciones de combate. La jueza, en sus preguntas previas, exigió pruebas concretas de que la empresa conservara capacidad para manipular Claude después de su despliegue, un detalle que subraya la necesidad de que las alegaciones de riesgo nacional se basen en evidencias técnicas, no en especulaciones.

Lo que comenzó como una negociación contractual ha derivado en una causa constitucional que ha dividido al espectro político. Que una empresa estadounidense sea catalogada como “riesgo de cadena de suministro” —un estigma que conlleva restricciones automáticas para otros contratistas federales— ha generado alertas sobre el posible abuso de esta facultad para coercionar posturas ideológicas o comerciales. Varios analistas jurídicos citados en los escritos de amicus curie han llegado a calificar la acción gubernamental como un “intento de asesinato corporativo”, un término que, si bien exagerado para la jueza, refleja la gravedad percibida por el sector privado.

Para la industria de la moda, que cada vez más integra la inteligencia artificial en procesos creativos, de producción y de relación con el cliente, elCasoinstrumenta un recordatorio crucial: las grandes plataformas de IA están definiendo sus propias cartas éticas, y estas decisiones tendrán ripple effects en toda la cadena de valor. Si un gigante como Anthropic se atreve a enfrentarse al Pentágono por sus principios, ¿implicará esto que las casas de moda podrán exigir a sus proveedores de IA cláusulas que prohíban usos orientados a la explotación laboral o la degradación ambiental? La controversia sugiere que la próxima frontera en la gobernanza tecnológica no será solo técnica, sino profundamente normativa, con implicaciones para la licencia social de operar de cualquier marca.

La portavoz de Anthropic, Danielle Cohen, ha manifestado su satisfacción por la celeridad judicial y ha reafirmado el compromiso de la compañía con “un uso productivo de la IA que beneficie a todos los estadounidenses”. Sin embargo, el litigio está lejos de resolverse. Mientras la vista definitive se acerca, lo que está en juego es un mapa de relaciones entre estado, empresa ética y soberanía tecnológica que, pese a gestarse en los tribunales de California, trazará líneas de conducta para innovadores en Madrid, Milán o París. En un mundo donde la IA es el nuevo tejido con el que se confecciona el futuro, este fallo provisional es apenas la primera puntada de una costura que redefinirá quién decide sobre los hilos y para qué sirve el patrón.

¿Qué opinas?

Escrito por Redacción - El Semanal

El Semanal: Tu fuente de noticias, tendencias y entretenimiento. Conéctate con lo último en tecnología, cultura, economía y más. Historias que importan, contadas de manera dinámica y accesible. ¡Únete a nuestra comunidad!

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

GIPHY App Key not set. Please check settings

Tribunal desestima demanda de Musk y avala legalidad del boicot a X

Competencia italiana examina a Sephora y Benefit Cosmetics