Morning Overview

Microsoft stellt Copilot Cowork mit Anthropic für Microsoft 365 vor

Microsoft hat am Montag Copilot Cowork vorgestellt, eine neue KI-Agenten-Schicht für Microsoft 365, die über einfache Chat-Interaktionen hinausgeht und mehrstufige Aufgaben in E‑Mails, Meetings, Dateien und Messaging-Apps ausführt. Das Produkt, angekündigt von Charles Lamanna und mit den Claude-Modellen von Anthropic, die als formaler Unterauftragsverarbeiter betrieben werden, entwickelt, ist eine bewusste Wette darauf, dass Unternehmens-KI im Auftrag der Mitarbeitenden handeln sollte, statt nur ihre Fragen zu beantworten. Für Unternehmen, die bereits für Microsoft 365 Copilot-Lizenzen zahlen, ergibt sich dadurch eine praktische Frage: Was ändert sich, wenn ein KI-Assistent Pläne entwerfen, diese im Hintergrund ausführen und Menschen nur an entscheidenden Entscheidungspunkten hinzuziehen kann?

Vom Chat-Assistenten zum autonomen Agenten

Die meisten in Bürosoftware eingebetteten KI-Tools funktionieren immer noch wie glorifizierte Suchleisten. Ein Nutzer gibt eine Eingabe ein, erhält eine Antwort und führt dann manuell das aus, was die Antwort vorschlägt. Copilot Cowork durchbricht dieses Muster. Laut Microsofts offizieller Ankündigung führt das System Aktionen in Microsoft 365 aus, anstatt nur Text zu generieren. Es stützt diese Aktionen auf den Nutzerkontext aus E‑Mails, Meetings, Nachrichten, Dateien und Organisationsdaten und führt Pläne im Hintergrund mit eingebauten Kontrollpunkten und menschlicher Aufsicht aus.

Diese Designentscheidung ist wichtig, weil sie das Vertrauensmodell verändert. Anstatt dass ein Nutzer jede KI-Ausgabe prüft, bevor er handelt, arbeitet Copilot Cowork halbautonom und zeigt seine Arbeit in definierten Intervallen an. Der Mensch bleibt in der Schleife, aber die Schleife ist weiter gefasst. Jared Spataro, der Microsofts AI-at-Work-Initiativen leitet, betonte im Gespräch mit dem Reuters-Bericht, dass Kunden sehen können, auf welche Informationen das System zugreift und wie diese verwendet werden, wenn es im Auftrag des Nutzers handelt.

Die Unterscheidung zwischen „Chat“ und „Agent“ ist nicht nur Branding. Ein Chat-Tool erzeugt Vorschläge. Ein Agent führt Workflows aus. Wenn Copilot Cowork zuverlässig Meetings anhand von E‑Mail-Threads planen, Folgeunterlagen aus Meeting-Notizen entwerfen und Daten über SharePoint-Dateien hinweg zusammenstellen kann, ohne ständige Aufforderungen, verändert das den täglichen Rhythmus der Wissensarbeit. Das Risiko ist natürlich, dass autonome Aktionen ohne strenge Schutzmechanismen Fehler in großem Maßstab erzeugen können, weshalb das Kontrollpunkt-Modell von IT-Abteilungen bei der Bewertung der Einführung genau geprüft wird. Organisationen müssen entscheiden, welche Aufgaben sicher delegiert werden können und bei welchen sie weiterhin jede einzelne Aktion menschlich überprüfen lassen wollen.

Warum Anthropic, und warum als Unterauftragsverarbeiter

Die Entscheidung von Microsoft, die Claude-Modelle von Anthropic zu integrieren statt sich ausschließlich auf OpenAI zu stützen, ist der strategisch interessanteste Aspekt dieser Ankündigung. Jahrelang drehte sich Microsofts KI-Geschichte um die exklusive Partnerschaft mit OpenAI. Anthropic in das 365-Ökosystem zu bringen, signalisiert eine Bewegung hin zu Modellvielfalt, bei der verschiedene KI-Engines je nach ihren Stärken und Sicherheitsprofilen unterschiedliche Aufgaben übernehmen.

Die rechtliche und Compliance-Architektur erzählt die eigentliche Geschichte. Anthropic wurde als formaler Unterauftragsverarbeiter für Microsoft Online Services aufgenommen, eine Klassifizierung, die Claude unter Microsofts Produktbedingungen und das Data Protection Addendum fallen lässt. Das ersetzt eine frühere Regelung, bei der Kunden, die Anthropic-Modelle nutzen wollten, sich unter separaten kommerziellen Bedingungen von Anthropic anmelden mussten. Die Änderung bedeutet, dass der Schutz von Unternehmensdaten nun einheitlich gilt und IT-Administratoren nicht mehr einen zweiten Satz von Anbieterverträgen verwalten müssen, um Claude innerhalb von 365 zu nutzen.

Für Unternehmenskäufer ist das eine spürbare Vereinfachung. Data-Governance-Teams wehren sich typischerweise gegen das Hinzufügen neuer KI-Anbieter, weil jeder Anbieter eine eigene Compliance-Oberfläche einführt. Indem Microsoft Anthropic in sein bestehendes vertragliches Rahmenwerk aufnimmt, beseitigt es diese Reibung. Der Kompromiss besteht darin, dass Kunden nun auf Microsofts Aufsicht über den Umgang von Anthropic mit Daten angewiesen sind, anstatt direkt mit dem KI-Unternehmen zu verhandeln. Ob diese Konzentration des Vertrauens ein Netto-Vorteil ist, hängt davon ab, wie viel Vertrauen eine Organisation in Microsofts Durchsetzung der eigenen Bedingungen und in seine Fähigkeit legt, Unterauftragsverarbeiter effektiv zu prüfen.

Es gibt auch eine Wettbewerbsdimension. Indem Microsoft Anthropic als Unterauftragsverarbeiter einstellt, kann es Claude als erstklassige Option innerhalb seines Cloud- und Produktivitäts-Stacks präsentieren, ohne Kunden zu zwingen, es als separate Anbieterbeziehung zu betrachten. Das hält den Schwerpunkt in Microsoft 365, auch wenn die darunterliegende KI-Schicht heterogener wird.

Claude treibt den Researcher-Agenten an

Der erste sichtbare Integrationspunkt für die Technologie von Anthropic ist der Researcher-Agent innerhalb von Microsoft 365 Copilot. Laut Microsofts Support-Anleitung können Nutzer mit einer aktiven Microsoft 365 Copilot-Lizenz Claude-Modelle im Researcher über einen eingebauten Modellauswahlfluss auswählen. Die Funktion erfordert eine Aktivierung durch Admins, bevor Endnutzer darauf zugreifen können, und die Rollout-Zeiten variieren je nach Organisation und Region.

Die Admin-Sperre ist bewusst gewählt. Anstatt in jedem 365-Mandanten einen Schalter umzulegen, lässt Microsoft IT-Teams entscheiden, wann und ob Claude als Option freigegeben wird. Das gibt Organisationen Zeit, die Unterauftragsverarbeiter-Bedingungen zu prüfen, die Integration in kontrollierten Umgebungen zu testen und interne Richtlinien festzulegen, bevor Mitarbeitende beginnen, sensible Anfragen durch ein neues Modell zu leiten. Für kleinere Unternehmen ohne dediziertes KI-Governance-Personal bedeutet die standardmäßig deaktivierte Einstellung, dass der Zugriff auf Claude hinter größeren Unternehmen zurückbleiben könnte, die die Ressourcen haben, neue Tools schnell zu bewerten und freizugeben.

Der Researcher-Agent selbst ist für tiefgehende Informationsbeschaffung konzipiert und zieht Informationen aus Webquellen und internen Organisationsdaten heran, um detaillierte Analysen zu erstellen. Claude als alternatives Modell hinzuzufügen, gibt Nutzern eine Wahl, wie diese Recherche durchgeführt wird. Verschiedene Modelle haben unterschiedliche Stärken im Schließen von logischen Lücken, bei der Zusammenfassung und im Umgang mit Mehrdeutigkeit, sodass die Möglichkeit, zwischen Engines zu wechseln, je nach Aufgabe deutlich unterschiedliche Ergebnisse liefern kann. Im Laufe der Zeit könnten Nutzungsmuster zeigen, wo Claude bevorzugt wird, etwa beim Synthesieren von längeren Berichten, während andere Modelle für eher transaktionale Eingaben Standard bleiben.

Was das für das Multi-Modell-Unternehmen bedeutet

Die größere Implikation von Copilot Cowork ist, dass Microsoft eine Plattform aufbaut, auf der mehrere KI-Anbieter um verschiedene Teile des Workflows konkurrieren. OpenAI-Modelle treiben weiterhin das Kern-Copilot-Erlebnis an, aber Anthropic übernimmt nun spezifische Agentenfunktionen, beginnend mit Research und möglicherweise erweiterbar auf andere komplexe Workflows. Dieser hybride Ansatz hat praktische Vorteile: Wenn ein Modell bei einer bestimmten Art von Reasoning schwächelt oder in einem bestimmten Bereich unzuverlässige Ausgaben erzeugt, kann die Plattform diese Arbeit an eine besser geeignete Engine weiterleiten.

Diese Flexibilität schafft aber auch Komplexität. IT-Administratoren müssen nun verstehen, welche Modelle aktiv sind, auf welche Daten jedes Modell zugreifen kann und wie sich diese Modelle unter verschiedenen Bedingungen verhalten. Dokumentation zu Unterauftragsverarbeitern, Datenresidenz und Protokollierung wird zentral für die Entscheidungsfindung bei der Bereitstellung. Sicherheitsteams werden klare Antworten darauf wollen, ob die Modellauswahl den Ort der Datenverarbeitung verändert, wie lange Daten aufbewahrt werden und welche Schutzmaßnahmen gelten, wenn Agenten autonom über mehrere Anwendungen hinweg handeln.

Für Endnutzer kann das Multi-Modell-Design zunächst weitgehend unsichtbar bleiben. Sie werden Copilot Cowork als einen einzelnen Assistenten sehen, der einen größeren Teil ihrer Arbeit übernehmen kann, nicht als Sammlung austauschbarer Modelle. Sobald jedoch Schnittstellen wie der Researcher-Agent explizite Modellwahlmöglichkeiten aufzeigen, könnten Mitarbeitende Vorlieben und informelle Richtlinien entwickeln, ein Modell für Brainstorming, ein anderes für richtlinienkritische Aufgaben zu nutzen und sich auf Coworks Automatisierungsschicht zur Orchestrierung des Rests zu verlassen.

Kurzfristig wird der Erfolg von Copilot Cowork davon abhängen, wie gut Microsoft Autonomie und Kontrolle ausbalanciert. Unternehmen werden auf klare Konfigurationsoptionen achten: die Möglichkeit zu begrenzen, welche Apps Agenten berühren können, Genehmigungs-Workflows für wirkungsvolle Aktionen zu definieren und zu überwachen, was das System im Auftrag der Nutzer tut. Das Versprechen einer KI, die tatsächlich die Arbeit erledigt, anstatt nur darüber zu sprechen, ist verlockend. In regulierten Branchen und großen Organisationen wird dieses Versprechen jedoch nur eingelöst werden, wenn der zugrunde liegende Agentenrahmen, die Modellauswahl und die Regelungen zu Unterauftragsverarbeitern rechtlicher, sicherheitstechnischer und Compliance-Prüfung standhalten.

Alexander Clark

Alexander Clark is a tech writer who thrives on exploring the latest innovations and industry trends. As a contributor to Morning Overview, he covers everything from emerging technologies to the impact of digital transformation on everyday life. With a passion for making complex topics accessible, Alexander delivers insightful analysis that keeps readers informed and engaged. When he's not writing about the future of technology, he enjoys testing new gadgets and experimenting with smart home tech.