Microsoft hat öffentlich die Bundesklage von Anthropic unterstützt, die eine Direktive der Trump-Administration anfechtet, mit der die Technologie des KI-Unternehmens von Plattformen der US-Regierung entfernt wurde. Die in das Northern District of California eingereichte Klage richtet sich gegen das Verteidigungsministerium und verwandte Behörden wegen der von Anthropic als rechtswidrige Entfernung seiner Claude-KI-Modelle aus föderalen Beschaffungswegen. Microsofts Entscheidung, sich gegen das Weiße Haus auf die Seite von Anthropic zu stellen, stellt ein seltenes unternehmerisches Wagnis dar, zu einem Zeitpunkt, an dem der Großteil des Silicon Valley vorsichtig war, direkte Konfrontationen mit der Regierung zu vermeiden.
Was Anthropic eingereicht hat und warum
Die Klage mit dem Titel Anthropic PBC v. U.S. Department of War et al. (Az. 3:26-cv-01996) wurde beim US-Bezirksgericht für den Northern District of California eingereicht. Gerichtsakten zeigen, dass die Docket eine Beschwerde, einen Antrag auf einstweilige Verfügung, unterstützende eidesstattliche Erklärungen und Anlagen enthält, was auf eine aggressive Rechtsstrategie abzielt, die darauf gerichtet ist, das Vorgehen der Regierung schnell zu stoppen, anstatt Monate konventioneller Verfahren abzuwarten.
Der Streit dreht sich um eine Direktive der General Services Administration, die die Entfernung von Anthropic von USAi.gov und aus dem Multiple Award Schedule ankündigte, dem Hauptinstrument der Regierung zum Einkauf kommerzieller Produkte und Dienstleistungen. Die GSA stellte ihre Maßnahme als Unterstützung des Präsidenten bei einer „National Security AI Directive“ dar, obwohl die von der Agentur veröffentlichte Begründung nur begrenzte technische Argumente dafür lieferte, einen einzelnen Anbieter herauszugreifen. Anthropics Beschwerde beruft sich auf 10 U.S.C. Section 3252, ein Gesetz, das Beschaffungspraktiken im Bereich der nationalen Sicherheit regelt, und argumentiert, die Entfernung habe geltende rechtliche Schutzvorschriften verletzt und die Befugnisse überschritten, die der Exekutive vom Kongress eingeräumt wurden.
Nach Darstellung der Klage behauptet Anthropic, die Regierung habe sich auf eine vage, klassifizierte Risikoabschätzung gestützt, die dem Unternehmen nie mitgeteilt wurde, wodurch ihm jede Möglichkeit genommen wurde, angebliche Sicherheitsbedenken zu adressieren. Die Beschwerde führt aus, dass ein derartiges Verfahren den grundlegenden Prinzipien des Verwaltungsrechts zuwiderläuft, die in der Regel Mitteilung, Belege und eine nachvollziehbare Begründung verlangen, wenn die Regierung Maßnahmen trifft, die einem regulierten Akteur erheblichen wirtschaftlichen Schaden zufügen.
Ein 1-Dollar-Deal, der über Nacht aufgehoben wurde
Die Geschwindigkeit der Umkehr ist auffällig, wenn man sie an der früheren Begeisterung der Regierung für Anthropics Technologie misst. Letzten Sommer kündigte die GSA eine OneGov-Vereinbarung mit Anthropic an, die Claude AI allen Regierungsstellen für nur 1 Dollar anbot—ein Deal, der darauf ausgelegt war, die föderale KI-Einführung in den Behörden zu beschleunigen. Die technischen Unterlagen der Plattform bestätigten die Integration: die USAi-API-Dokumentation führte Anthropic-Modelle als Teil des föderalen KI-Stacks auf, einschließlich Endpunkte für Textanalyse, Zusammenfassung und Code-Unterstützung.
Dieser Kontext ist wichtig, weil er zeigt, dass die Regierung Anthropic nicht nur distanziert bewertete. Bundesbehörden hatten bereits begonnen, Arbeitsabläufe um Claude herum aufzubauen, über USAi.gov, die zentralisierte KI-Plattform der GSA. Ein plötzlicher Ausschluss eines integrierten Anbieters verursacht Folgeprobleme für jede Behörde, die begonnen hatte, diese Werkzeuge für den täglichen Betrieb zu nutzen—von der Dokumentenanalyse bis zur internen Forschungsunterstützung. Der Antrag auf einstweilige Verfügung in der Klage spiegelt diese Dringlichkeit wider: Anthropic bittet das Gericht, die Entfernung zu stoppen, bevor Behörden gezwungen sind, Systeme während des Betriebs abzuschalten und hastig weniger erprobte Alternativen zu suchen.
Anthropic argumentiert außerdem, dass die 1-Dollar-Vereinbarung kein Geschenk war, sondern eine bewusste politische Entscheidung der GSA, eine standardisierte KI-Umgebung über die Bundesregierung hinweg aufzubauen. Indem die Regierung diese Vereinbarung für einen einzelnen Anbieter abrupt beendet habe, so das Unternehmen, habe sie ihre eigene Modernisierungsstrategie untergraben und unnötige Fragmentierung in föderalen KI-Einsätzen erzeugt.
Microsofts kalkulierte Abkehr von der Konvention
Die größere Geschichte ist nicht die Klage selbst, sondern wer sich ihr angeschlossen hat. Microsofts Entscheidung, Anthropic gegen die Trump-Administration zu unterstützen, bricht deutlich mit der Haltung, die die meisten großen Technologieunternehmen eingenommen haben. Wie eine DealBook-Analyse feststellte, lautete die ungeschriebene Regel der Unternehmenswelt im vergangenen Jahr schlicht: such dir keinen Konflikt mit diesem Weißen Haus. Microsofts Schritt widerspricht dieser Norm in jeder Hinsicht und signalisiert die Bereitschaft, politischen Gegenwind in Kauf zu nehmen, um längerfristige Interessen zu verteidigen.
Die Risikoabwägung des Unternehmens spiegelt wahrscheinlich mehr als nur Solidarität mit einem Wettbewerber wider. Microsoft hat tiefgehende Verbindungen zur föderalen KI-Vergabe, von Cloud-Infrastruktur bis zu maßgeschneiderten Modellen für Verteidigungs- und zivile Behörden. Ein Präzedenzfall, der es der Exekutive erlaubt, einen Anbieter ohne klare gesetzliche Grundlage aus Beschaffungslisten zu entfernen, bedroht jedes Technologieunternehmen, das mit der Regierung Geschäfte macht. Wenn die Administration Anthropic aufgrund einer vage definierten nationalen Sicherheitsdirektive entfernen kann, könnte derselbe Mechanismus gegen jedes Unternehmen eingesetzt werden, das in politische Ungnade fällt oder als nicht ausreichend mit den Prioritäten der Administration übereinstimmend angesehen wird.
Indem Microsoft sich mit Anthropic stellt, scheint das Unternehmen eine Grenze zu ziehen—nicht nur zugunsten eines Konkurrenten, sondern um die rechtliche Architektur zu schützen, die seine eigenen Regierungsaufträge regelt. Microsoft argumentiert im Kern, dass ein vorhersehbares, regelbasiertes Beschaffungssystem wichtiger ist als kurzfristiges Wohlwollen gegenüber einer bestimmten Administration. Diese Position dürfte bei anderen großen Auftragnehmern Anklang finden, die den Fall genau beobachten, sich bislang jedoch zurückgehalten haben.
GSA-interne KI-Richtlinie liefert Hinweise
Die GSA unterhält eine veröffentlichte Richtlinie zur Nutzung künstlicher Intelligenz, die auf Leitlinien des Office of Management and Budget verweist, wie Behörden KI-Werkzeuge bewerten und handhaben sollten. Dieses Policy-Framework legt Risikokategorien, Governance-Gremien und Prüfprozesse fest, die sicherstellen sollen, dass Entscheidungen über die Einführung oder Entfernung von KI einem strukturierten, dokumentierten Ablauf folgen. Das Rechtsteam von Anthropic argumentiert offenbar, die Administration habe diese internen Schutzmechanismen vollständig umgangen und die Entfernung als politische Entscheidung statt als Beschaffungsmaßnahme behandelt.
Die Unterscheidung ist auch für die Bundesbeschaffungspolitik insgesamt wichtig. Wenn Gerichte anerkennen, dass eine Direktive des Weißen Hauses etablierten Beschaffungsregeln und Risikoabschätzungsrahmen überstimmen kann, wird die Fähigkeit der Regierung, Partner aus dem Privatsektor für KI-Projekte zu gewinnen, schrumpfen. Unternehmen investieren stark, um föderale Compliance-Standards zu erfüllen—von FedRAMP-Sicherheitsgrundlagen bis zu Prüfungen hinsichtlich Verzerrung und Transparenz—und diese Investitionen verlieren an Wert, wenn der Zugang eines Anbieters per Exekutivanweisung unabhängig von Leistung oder Sicherheitsstatus entzogen werden kann.
Die internen Richtlinien der GSA betonen zudem Dokumentation und Erklärbarkeit bei KI-Entscheidungen. Anthropic hingegen sagt, es habe lediglich eine knappe Mitteilung über die Entfernung erhalten, ohne detaillierte Erklärung zu spezifischen Schwachstellen oder Vorfällen. Diese Lücke zwischen schriftlicher Richtlinie und tatsächlicher Praxis könnte vor Gericht zum zentralen Streitpunkt werden, insbesondere wenn Richter abwägen müssen, ob die Behörde arbiträr oder willkürlich nach dem Administrative Procedure Act gehandelt hat.
Historische Parallelen und neue Einsätze
Dass Technologiefirmen Maßnahmen eines amtierenden Präsidenten rechtlich anfechten, ist nicht völlig ohne Beispiel. 2017 schloss sich eine breite Koalition von Unternehmen, darunter Unternehmen von Elon Musk, Amicus-Schreiben an, die das erste Einreiseverbot Trumps ablehnten und argumentierten, dass abrupte Einwanderungsbeschränkungen ihre Belegschaften schädigten und die Wettbewerbsfähigkeit der USA untergruben. Diese Bemühungen beschränkten sich jedoch größtenteils auf Freund-des-Gerichts-Stellungen und nicht auf direkte Beteiligung an Klagen über das Kerninstrumentarium der Bundesbeschaffung.
Der Fall Anthropic berührt andere und wohl höhere Einsätze. Anstatt die Reichweite der Einwanderungsbefugnisse zu bestreiten, geht es hier um die Frage, wie die Regierung Technologieanbieter auswählt und verwaltet. Sollte Anthropic obsiegen, könnte eine Entscheidung den Einsatz nationaler Sicherheitsbegründungen als pauschale Rechtfertigung für den Ausschluss unerwünschter Anbieter einschränken und Behörden zwingen, vor ähnlichen Maßnahmen transparentere, auf Belegen basierende Akten aufzubauen. Gewinnt die Administration, könnte sich ein Modell verfestigen, in dem KI-Anbieter im Wohlwollen der Exekutive operieren, mit begrenzten Rechtsbehelfen, falls sich die politischen Winde wenden.
Für Microsoft ist das Wagnis die Hoffnung, dass die Verteidigung von Verfahrensgrundsätzen jetzt sich später auszahlt, selbst wenn dies die Beziehungen zu aktuellen Politikern belastet. Für Anthropic ist die Klage existenziell: Der Zugang zu föderalen Plattformen wie USAi.gov war zentral für die Wachstumsstrategie des Unternehmens und für sein Argument, dass sicherere, besser kontrollierbare KI-Systeme in sensible Regierungsabläufe eingebettet werden sollten. Und für die gesamte KI-Branche wird das Ergebnis mitbestimmen, ob Verkäufe in Washington ein stark reguliertes, aber letztlich stabiles Geschäft bleiben oder ein risikoreiches Unterfangen, das plötzlichen Richtungswechseln von oben ausgesetzt ist.