in

Anthropic lanza Code Review, demanda al Pentágono por exclusión y firma con Microsoft.

Anthropic lanza un sistema de revisión de código con múltiples agentes de IA y se enfrenta al gobierno de EE.UU. en una demanda histórica

En un movimiento que redefinirá las herramientas disponibles para el desarrollo de software, Anthropic ha presentado Code Review, un sistema integrado en su plataforma Claude Code que despliega equipos de agentes de inteligencia artificial para analizar cada solicitud de extracción (pull request). La nueva funcionalidad, disponible en versión preliminar de investigación para los planes Team y Enterprise, se activa precisamente en uno de los días más críticos para la compañía, al verse envuelta en una batalla legal con la administración federal y sellar una alianza estratégica con Microsoft.

El lanzamiento no es una simple actualización, sino un cambio de filosofía. Anthropic abandona la idea de un asistente que acelera tareas para apostar por un sistema que prioriza la exhaustividad sobre la velocidad. Mientras herramientas como GitHub Copilot ofrecen revisiones casi instantáneas, Code Compute —como se conoce internamente— dedica un promedio de 20 minutos por revisión, utilizando múltiples agentes que trabajan en paralelo. Estos programas no solo buscan errores, sino que contrastan sus hallazgos entre sí para eliminar falsos positivos y jerarquizan los problemas por severidad, ofreciendo un único comentario general y anotaciones específicas en el código.

El precio refleja esta ambición: entre 15 y 25 dólares por revisión, un coste sustancialmente mayor al de sus competidores. La justificación de Anthropic no se basa en la productividad, sino en la gestión de riesgos. La compañía enmarca su producto como un «seguro para la calidad del código», argumentando que el coste de un error en producción —con sus paradas, revisiones urgentes y daño a la reputación— supera con creces la inversión en revisiones automatizadas exhaustivas. Esta estrategia busca atraer a líderes de ingeniería preocupados por la estabilidad de sus sistemas, no por la velocidad de despliegue.

Los datos internos de Anthropic son reveladores. En solicitudes de extracción grandes (más de 1.000 líneas modificadas), el 84% recibe alertas, con una media de 7,5 problemas detectados. En cambios mínimos (menos de 50 líneas), el porcentaje baja al 31%, con menos de un problema de media. La compañía asegura que menos del 1% de las alertas son marcadas como incorrectas por los ingenieros. Sin embargo, expertos señalan que esta métrica podría subestimar los falsos positivos, ya que un desarrollador ocupado podría simplemente ignorar una alerta irrelevante en lugar de desestimarla activamente. Hasta la fecha, Anthropic no ha publicado comparativas externas independientes que certifiquen su tasa de detección frente a soluciones rivales.

La sombra de la demanda federal y el respaldo de los gigantes de la nube

El lanzamiento técnico de Code Review queda eclipsado por un acontecimiento de mayor calado: Anthropic ha presentado dos demandas contra la administración Trump. La compañía impugna la decisión del Pentágono de etiquetarla como un «riesgo para la cadena de suministro» de la seguridad nacional, una designación que congeló sus contratos con agencias federales y exige a los contratistas de defensa que certifiquen no utilizar sus modelos. Anthropic califica esta medida de «sin precedentes e ilegal», denunciando la pérdida de «cientos de millones de dólares» en ingresos.

El conflicto surge de una discrepancia en las negociaciones contractuales. Según medios estadounidenses, el Pentágono exigía acceso ilimitado a Claude para «cualquier propósito legal», mientras Anthropic se negaba a permitir su uso en armas autónomas o vigilancia masiva doméstica. Tras el colapso de las conversaciones, la orden ejecutiva federal prohibió el uso de la tecnología de Anthropic en todo el gobierno.

Curiosamente, mientras Washington busca aislar a la startup, sus tres socios distribuidores en la nube —Microsoft, Google y Amazon— han reafirmado públicamente su compromiso con Claude. El anuncio más significativo es el de Microsoft, que integrará a Claude en su suite Microsoft 365 Copilot a través de un nuevo servicio llamado Copilot Cowork. Esta alianza, fraguada en secreto, permitirá a las empresas utilizar al modelo de Anthropic para tareas como generar presentaciones, manipular datos en Excel o coordinar calendarios, compitiendo directamente con soluciones de Salesforce, ServiceNow o Intuit.

Los gigantes tecnológicos han concluido, según informaciones filtradas, que los productos de Anthropic pueden seguir disponibles para sus clientes civiles, excluyendo únicamente al Departamento de Defensa. Este posicionamiento conjunto envía un mensaje claro al mercado: la valoración técnica de Claude es alta y la designación gubernamental es considerada un problema específico, no una condena general.

Implicaciones para desarrolladores y empresas

Para las organizaciones que evalúan Code Review, la polémica legal añade una capa de complejidad a la valoración de riesgos del proveedor. La pregunta ya no es solo si la herramienta detecta bugs con eficacia, sino si su continuidad comercial podría verse afectada por acciones políticas. La respuesta del ecosistema corporativo, con el respaldo de los hyperscalers, sugiere que, por ahora, la demanda no ha mermado la confianza comercial.

En el ámbito de la seguridad de datos, Anthropic asegura no entrenar sus modelos con la información de sus clientes, un punto crucial para industrias con regulaciones estrictas. La empresa cita como referentes a clientes como la farmacéutica Novo Nordisk o la financiera Intuit, si bien no detalló certificaciones específicas ni políticas de retención de datos solicitadas por este medio. Los administradores dispondrán de controles de coste, como límites de gasto mensual por organización o habilitación por repositorio.

El dato financiero más contundente es la confirmación de una tasa de ingresos anualizada de 2.500 millones de dólares para Claude Code, lo que demuestra la velocidad con la que las herramientas para desarrolladores se han convertido en un negocio material para la compañía. Code Review aspira a acelerar aún más esta curva, pero su éxito dependerá de si puede transformar las anécdotas de errores críticos detectados y sus estadísticas internas en evidencia sólida y comparable que justifique su precio premium ante la comunidad de ingeniería.

En síntesis, Anthropic navega aguas turbulentas. Mientras lanza un producto audaz que desafía la lógica del mercado de herramientas de IA para desarrollo, libra una contienda legal que redefine los límites entre innovación tecnológica y seguridad nacional. El resultado de este doble frente determinará si su apuesta por la profundidad sobre la rapidez, y por la independencia sobre la sumisión a las exigencias gubernamentales, es sostenible a largo plazo.

¿Qué opinas?

Escrito por Redacción - El Semanal

El Semanal: Tu fuente de noticias, tendencias y entretenimiento. Conéctate con lo último en tecnología, cultura, economía y más. Historias que importan, contadas de manera dinámica y accesible. ¡Únete a nuestra comunidad!

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

GIPHY App Key not set. Please check settings

Fiscales de Massachusetts archivan causa contra Christian Barmore de los Patriots

Me+Em estrena Suit Lab, trajes para mujeres de todas las siluetas y tallas.