Microsoft ha respaldado públicamente la demanda federal de Anthropic que impugna una directiva de la administración Trump que retiró la tecnología de la compañía de IA de las plataformas del gobierno de EE. UU. El caso, presentado en el Distrito Norte de California, apunta al Departamento de Defensa y a agencias relacionadas por lo que Anthropic califica como una eliminación ilegal de sus modelos Claude de los canales de contratación federal. La decisión de Microsoft de ponerse del lado de Anthropic contra la Casa Blanca representa una apuesta corporativa poco habitual en un momento en que gran parte de Silicon Valley ha sido cautelosa para evitar una confrontación directa con la administración.
Qué presentó Anthropic y por qué
La demanda, titulada Anthropic PBC v. U.S. Department of War et al. (Caso núm. 3:26-cv-01996), se presentó en el Tribunal de Distrito de los EE. UU. para el Distrito Norte de California. Los registros judiciales muestran que el expediente incluye una queja, una moción para una orden de restricción temporal, declaraciones de apoyo y pruebas, todo lo cual apunta a una estrategia legal agresiva diseñada para detener las acciones del gobierno rápidamente en lugar de esperar meses de litigio convencional.
La disputa se centra en una directiva de la General Services Administration que anunció la retirada de Anthropic de USAi.gov y del Multiple Award Schedule, el principal instrumento del gobierno para comprar productos y servicios comerciales. La GSA enmarcó su actuación como alineada con el presidente en una “Directiva nacional de IA para la seguridad”, aunque la propia justificación publicada por la agencia ofreció una explicación técnica limitada para señalar a un proveedor en particular. La queja de Anthropic invoca la sección 3252 del título 10 del Código de los Estados Unidos, una ley que regula las prácticas de contratación en contextos de seguridad nacional, argumentando que la retirada violó salvaguardas legales establecidas y excedió la autoridad que el Congreso otorgó al poder ejecutivo.
Según la demanda, Anthropic sostiene que la administración se basó en una evaluación de riesgos vaga y clasificada que nunca se compartió con la empresa, privándola de cualquier oportunidad para abordar las supuestas preocupaciones de seguridad. La denuncia afirma que dicho proceso va en contra de principios básicos del derecho administrativo, que normalmente requieren notificación, pruebas y alguna forma de explicación fundamentada cuando el gobierno toma una medida que causa un daño comercial sustancial a una parte regulada.
Un acuerdo de 1 dólar revertido de la noche a la mañana
La rapidez de la reversión es llamativa si se mide frente al propio entusiasmo previo del gobierno por la tecnología de Anthropic. El verano pasado, la GSA anunció un acuerdo OneGov con Anthropic que ofrecía Claude AI a todas las ramas del gobierno por solo 1 dólar, un acuerdo diseñado para acelerar la adopción federal de IA en las agencias. Los registros técnicos de la plataforma confirmaron esa integración: la documentación de la API de USAi hacía referencia a los modelos de Anthropic como parte de la pila de IA federal, incluidos endpoints para análisis de texto, resumen y asistencia con código.
Ese contexto importa porque muestra que el gobierno no se limitaba a evaluar a Anthropic a distancia. Las agencias federales ya habían comenzado a construir flujos de trabajo alrededor de Claude a través de USAi.gov, la plataforma centralizada de IA gestionada por la GSA. Desconectar a un proveedor integrado crea interrupciones en cadena para cada agencia que había empezado a depender de esas herramientas en sus operaciones diarias, desde el análisis de documentos hasta el apoyo a la investigación interna. La moción de orden de restricción temporal de la demanda refleja esa urgencia: Anthropic pide al tribunal congelar la retirada antes de que las agencias se vean obligadas a eliminar sistemas en pleno uso y a buscar alternativas menos probadas.
Anthropic también argumenta que el acuerdo de 1 dólar no fue una dádiva sino una decisión de política deliberada por parte de la GSA para impulsar un entorno de IA estandarizado en todo el gobierno federal. Al terminar abruptamente ese acuerdo para un único proveedor, dice la compañía, la administración ha socavado su propia estrategia de modernización e introducido una fragmentación innecesaria en las implementaciones federales de IA.
La ruptura calculada de Microsoft con la convención
La historia más importante aquí no es tanto la demanda en sí como quién decidió unirse a ella. La decisión de Microsoft de respaldar a Anthropic contra la administración Trump rompe con fuerza con la postura que la mayoría de las grandes empresas tecnológicas han adoptado. Como señaló un análisis de DealBook, la regla no escrita de la empresa estadounidense en el último año ha sido simple: no provocarle un conflicto a esta Casa Blanca. El movimiento de Microsoft, en cualquier medida, desafía esa norma y señala una disposición a asumir represalias políticas en defensa de intereses a más largo plazo.
El cálculo de riesgos de la compañía probablemente refleja más que solidaridad con un competidor. Microsoft tiene sus propios profundos lazos con la contratación federal de IA, desde infraestructura en la nube hasta modelos personalizados para agencias civiles y de defensa. Un precedente que permita al poder ejecutivo quitar a un proveedor de los programas de contratación sin una autoridad estatutaria clara amenaza a todas las empresas tecnológicas que hacen negocios con el gobierno. Si la administración puede eliminar a Anthropic basándose en una directiva de seguridad nacional vagamente definida, el mismo mecanismo podría aplicarse a cualquier empresa que caiga en desgracia política o sea percibida como insuficientemente alineada con las prioridades de la administración.
Al ponerse del lado de Anthropic, Microsoft parece trazar una línea no solo en favor de un rival, sino para proteger la arquitectura legal que rige sus propios contratos gubernamentales. La compañía está, en efecto, argumentando que un sistema de contratación predecible y basado en reglas es más importante que mantener buena voluntad a corto plazo con cualquier administración en particular. Esa posición puede resonar entre otros grandes contratistas que están observando el caso de cerca pero que, hasta ahora, se han mantenido al margen.
La política interna de IA de la GSA ofrece pistas
La GSA mantiene su propia directiva publicada sobre el uso de la inteligencia artificial, que hace referencia a la orientación de la Oficina de Gestión y Presupuesto sobre cómo las agencias deben evaluar y gestionar las herramientas de IA. Ese marco de políticas establece categorías de riesgo, órganos de gobernanza y procesos de revisión destinados a asegurar que las decisiones sobre la adopción o la retirada de IA sigan un camino estructurado y documentado. El equipo legal de Anthropic parece argumentar que la administración pasó por alto por completo estas salvaguardas internas, tratando la retirada como una decisión política más que como una decisión de contratación.
La distinción importa para la política de adquisiciones federales en general. Si los tribunales aceptan que una directiva de la Casa Blanca puede anular las normativas de contratación establecidas y los marcos de evaluación de riesgos, la capacidad del gobierno para atraer socios del sector privado en IA disminuirá. Las empresas invierten mucho en cumplir los estándares de cumplimiento federal, desde las bases de seguridad FedRAMP hasta auditorías de sesgo y transparencia, y esas inversiones pierden valor si el acceso de un proveedor puede ser revocado por decreto ejecutivo independientemente del desempeño o del estado de seguridad.
Las políticas internas de la GSA también enfatizan la documentación y la explicabilidad en la toma de decisiones sobre IA. En contraste, Anthropic afirma que solo recibió un aviso breve de la retirada sin una explicación detallada de vulnerabilidades o incidentes específicos. Esa brecha entre la política escrita y la práctica real podría convertirse en un punto focal en el tribunal, especialmente si se pide a los jueces que evalúen si la agencia actuó de manera arbitraria o caprichosa en virtud de la Ley de Procedimiento Administrativo.
Ecos históricos y nuevas apuestas
No es del todo inusual que empresas tecnológicas impugnen acciones ejecutivas de un presidente en ejercicio. En 2017, una amplia coalición de empresas, incluidas las compañías de Elon Musk, se unieron a escritos amicus en contra de la primera prohibición de viaje de Trump, argumentando que las restricciones de inmigración repentinas dañaban sus plantillas y socavaban la competitividad de EE. UU. Pero esos esfuerzos adoptaron en gran medida la forma de presentaciones de amigos de la corte, no de participación directa en demandas sobre la maquinaria central de la contratación federal.
El caso de Anthropic plantea apuestas distintas y, posiblemente, más altas. En lugar de disputar el alcance de la autoridad migratoria, va al núcleo de cómo el gobierno selecciona y gestiona a sus proveedores tecnológicos. Si Anthropic prevalece, la sentencia podría restringir el uso de justificaciones de seguridad nacional como un argumento comodín para excluir a proveedores desfavorecidos, obligando a las agencias a construir registros más transparentes y basados en evidencias antes de tomar acciones similares. Si la administración gana, podría consolidar un modelo en el que los proveedores de IA operan a merced del ejecutivo, con recursos limitados si los vientos políticos cambian.
Para Microsoft, la apuesta es que defender el debido proceso ahora dará frutos más adelante, aunque complique las relaciones con los responsables políticos actuales. Para Anthropic, la demanda es existencial: el acceso a plataformas federales como USAi.gov fue central para su estrategia de crecimiento y para su argumento de que sistemas de IA más seguros y controlables deberían integrarse en flujos de trabajo gubernamentales sensibles. Y para la industria de la IA en general, el resultado ayudará a determinar si vender a Washington sigue siendo un negocio fuertemente regulado pero, en última instancia, estable, o una apuesta de alto riesgo sujeta a reversiones repentinas desde la cúpula.