OpenAI‑CEO Sam Altman hat wiederholt davor gewarnt, dass künstliche Intelligenz wirtschaftliche Macht von den Beschäftigten hin zu den Kapitalbesitzern verschiebt — eine Entwicklung, für die es seiner Ansicht nach keine offensichtliche politische Gegenmaßnahme gibt. Seine Sichtweise, dass KI die Verhandlungsdynamik zugunsten der Eigentümer der Maschinen und zu Ungunsten derjenigen verschiebt, die diese bedienen, stieß bei Ökonominnen und Politikexpertinnen sowohl auf Zustimmung als auch auf scharfe Gegenkritik. Da der Anteil der Arbeit am Nationaleinkommen bereits lange vor dem Aufkommen generativer KI über Jahrzehnte gesunken ist, lautet die Frage nun, ob die Technologie diesen Trend verstärken wird oder ob gezielte Eingriffe ihn abmildern können.
Altmans Warnung zur Verhandlungsmacht
In einem Interview von 2021 in einem New York Times‑Podcast legte Altman eine Theorie der durch KI erzeugten Fülle dar — mit einem politischen Haken. Er argumentierte, dass KI enormen Wohlstand schaffen könne, die Verteilung dieses Wohlstands jedoch davon abhinge, wer die Technologie kontrolliere. Das Gespräch behandelte Ungleichheit, politische Macht und die Schwierigkeit, politische Antworten auf eine sich schnell wandelnde technologische Entwicklung zu entwerfen. Altmans zentrales Anliegen war, dass Beschäftigte ihre wichtigste ökonomische Einflussquelle — die Fähigkeit, Arbeit zu verweigern — verlieren könnten, wenn KI‑Systeme in immer mehr Aufgaben in der Lage sind, menschliche Arbeit zu ersetzen oder zu reduzieren.
Dieses Argument hat seit 2021 nur an Bedeutung gewonnen. Altmans Formulierung einer „Verschiebung der Hebelwirkung von Arbeit zu Kapital“ ist zu einem Bezugspunkt in der breiteren Debatte über die Ökonomie der KI geworden. Ein Kommentar des Cato Institute griff genau diese Sprache auf, um zu argumentieren, dass KI die zugrundeliegende Ökonomie von Arbeit und Kapital nicht grundlegend verändere. Die Auseinandersetzung ist aufschlussreich: Selbst Skeptikerinnen und Skeptiker von Altmans Sichtweise nehmen die Behauptung ernst genug, um sie mit Daten zu entkräften — ein Hinweis darauf, dass es weithin als wichtig anerkannt wird, die Diagnose korrekt zu stellen.
Was Bundesdaten über den rückläufigen Arbeitsanteil zeigen
Die Debatte darüber, ob KI eine Machtverschiebung beschleunigt, findet nicht im luftleeren Raum statt. US‑Regierungsdaten dokumentieren bereits einen langen Rückgang des Teils des Nationaleinkommens, der an die Beschäftigten geht. Das Bureau of Economic Analysis verfolgt Aggregate zum Nationaleinkommen, einschließlich Arbeitnehmerentgelt und Bruttobetriebsüberschuss — die beiden Hauptposten, die das Einkommen zwischen Arbeit und Kapital aufteilen. Diese Reihen zeigen, dass der Anteil der Arbeit in den 1970er‑Jahren seinen Höchststand hatte und seitdem tendenziell gesunken ist, sich in den 2000er‑Jahren bei etwa drei Fünfteln des Nationaleinkommens einpendelte, während der Kapitalanteil zunahm.
Unterstützende Indikatoren aus der FRED‑Datenbank der Federal Reserve erzählen durch eine andere Perspektive eine ähnliche Geschichte. FRED bündelt offizielle Reihen des Bureau of Labor Statistics, des BEA und anderer Stellen und verfolgt reale Löhne, Produktivität, Arbeitslosigkeit und offene Stellen. Die anhaltende Lücke zwischen Produktivitätswachstum und realem Lohnwachstum in den letzten Jahrzehnten ist eines der deutlichsten Anzeichen dafür, dass Beschäftigte nicht den vollen Wert ihrer Arbeit eingefahren haben, selbst in Phasen niedriger Arbeitslosigkeit und hoher Stellenangebote. Diese Divergenz ist genau das, was viele Ökonominnen und Ökonomen meinen, wenn sie sagen, Arbeit habe im Verhältnis zum Kapital „Verhandlungsmacht verloren“.
Das ist der Hintergrund, vor dem Altmans Behauptung wirkt. Wenn die Arbeit bereits vor dem Aufkommen großer Sprachmodelle und KI‑Coding‑Assistenten an Boden verloren hatte, besteht die Sorge, dass KI‑Werkzeuge, die weiße‑Kragen‑Aufgaben automatisieren können — vom Verfassen juristischer Schriftsätze bis zum Programmieren — den Trend beschleunigen, indem sie die Nachfrage nach menschlichen Arbeitskräften in Rollen reduzieren, die zuvor starke Verhandlungspositionen boten. In Branchen, in denen eine kleine Zahl von Unternehmen den Zugang zu leistungsfähigen KI‑Systemen kontrolliert, könnte das Ungleichgewicht zwischen denen, die die Werkzeuge besitzen, und denen, die ihre Zeit verkaufen, deutlicher werden.
Bedingungsloses Grundeinkommen reicht als Lösung nicht aus
Altman hat das Problem nicht nur diagnostiziert, er hat auch Forschung zu potenziellen Lösungen finanziert. Eine der prominentesten ist das bedingungslose Grundeinkommen (UBI), also die Idee, allen Erwachsenen eine regelmäßige, bedingungslose Geldzahlung zu gewähren. Die Evidenz aus seinen eigenen Förderungen für diese Idee ist jedoch bestenfalls gemischt. Eine Studie, die Anfang 2025 veröffentlicht wurde und durch Altmans Förderung unterstützt wurde, kam zu dem Schluss, dass UBI keine umfassende Lösung für die ökonomischen Dislokationen darstellt, die KI verursachen könnte. Die Forschung charakterisierte KI‑gerechtfertigte UBI‑Vorschläge als eher symbolisch denn wirksam und warnte, dass sie für Technologieunternehmen eher eigennützig als vorteilhaft für Beschäftigte sein können.
Diese Erkenntnis ist wichtig, weil UBI in vielen Silicon‑Valley‑Kreisen die Standardantwort ist, wenn die Frage nach KI‑bedingten Arbeitsplatzverlusten auftaucht. Eine einfache, universelle Geldleistung ist leicht zu erklären und lässt sich als humane Reaktion auf Automatisierung verkaufen. Wenn jedoch eines der am engsten beobachteten Experimente in diesem Bereich zu dem Schluss kommt, dass Geldtransfers allein den strukturellen Verlust an Verhandlungsmacht nicht ausgleichen können, muss die politische Diskussion in schwereres Terrain vorrücken: Steuerreform, neue Eigentumsmodelle, branchenspezifische Umschulungsauflagen oder direkte Einschränkungen, wie und wo KI menschliche Arbeit ersetzen darf.
Keine dieser Alternativen hat die klare Einfachheit, die UBI für Tech‑Manager attraktiv macht. Die Ausgestaltung von Lohnversicherungen, übertragbaren Sozialleistungen oder Mitarbeiterbeteiligungen in KI‑intensiven Unternehmen erfordert detaillierte Regeln und Durchsetzungsfähigkeit. Experimente mit Mitbestimmung oder Arbeitnehmervertretung in Aufsichtsräten in KI‑starken Sektoren wären politisch umstritten. Und die Verknüpfung des KI‑Einsatzes mit Verpflichtungen zu Arbeitsqualität oder Umschulung würde Regulierungsbehörden zwingen, schwierige Entscheidungen darüber zu treffen, welche Formen der Automatisierung gesellschaftlich akzeptabel sind. Die Komplexität dieser Optionen erklärt, warum der Fortschritt langsam ist, obwohl die Rhetorik über KI‑Disruption lauter geworden ist.
Das Gegenargument und seine Grenzen
Nicht alle akzeptieren die Prämisse, dass KI die Ökonomie von Arbeit und Kapital grundlegend umschreibt. Die Analyse des Cato Institute argumentiert, historische Daten stützten die Idee nicht, dass Automatisierungstechnologien dauerhaft die Einkommensverteilung verschieben. Ihr Argument beruht auf der Beobachtung, dass frühere Technologie‑Wellen — von der Mechanisierung der Landwirtschaft bis zu Fabrikrobotern — schließlich neue Arbeitskategorien geschaffen hätten, die verdrängte Beschäftigte absorbierten und die Gesamtbeschäftigung aufrechterhielten. Nach dieser Logik ist KI nur ein weiteres Kapitel in einer bekannten Geschichte, in der Produktivitätsgewinne letztlich der Gesellschaft zugutekommen durch niedrigere Preise, höhere Produktion und neue Branchen.
Das Gegenargument hat als historische Beobachtung Gewicht, könnte jedoch die Geschwindigkeit und Breite der Reichweite von KI unterschätzen. Frühere Automatisierungswellen richteten sich vor allem gegen physische, repetitive Aufgaben. Generative KI zielt auf kognitive Arbeit ab — Analyse, Schreiben, Design und Programmierung — die lange als resistent gegenüber Automatisierung galt und die oft Mittelschicht‑Karrieren trägt. Die Frage ist nicht, ob langfristig neue Jobs entstehen werden, sondern ob die Übergangsphase lang genug und schmerzhaft genug sein wird, um die Position der Arbeit dauerhaft zu schwächen. Wenn Kapitalbesitzer KI‑Werkzeuge schneller einsetzen können, als Beschäftigte sich umschulen oder in neue Rollen wechseln können, könnte die Lücke zwischen Produktivität und Löhnen sich noch weiter öffnen, bevor sich ein neues Gleichgewicht einstellt.
Es gibt auch eine politische Dimension. Selbst wenn die langfristigen Beschäftigungseffekte von KI denen früherer Technologien ähneln, könnte die Verteilung von Einkommen und Macht während des Übergangs sehr unterschiedlich aussehen. Konzentrierter Besitz von Daten, Recheninfrastruktur und proprietären Modellen könnte einigen wenigen Unternehmen übermäßigen Einfluss auf Märkte und Politik verschaffen. In einem solchen Szenario geht es weniger um aggregierte Beschäftigungszahlen und mehr darum, wer den von KI erzeugten Überschuss abschöpft und ob Beschäftigte institutionelle Hebel haben, um einen Anteil davon einzufordern.
Warum sektorspezifische Politik wichtiger sein könnte als allgemeine Umverteilung
Die Lücke zwischen Altmans Diagnose und dem verfügbaren politischen Instrumentarium ist die eigentliche Geschichte. Er hat ein strukturelles Problem identifiziert (die Erosion der Verhandlungsmacht der Beschäftigten durch technologische Verdrängung), doch weder er noch die breitere Politiklandschaft haben eine vollständig ausgearbeitete Lösung vorgelegt. Forschung zu UBI, die durch Altmans Mittel gefördert wurde, deutet darauf hin, dass allgemeine Geldtransfers nicht ausreichen. Libertäre Kritikerinnen und Kritiker behaupten, es sei keine Lösung nötig, weil sich die Märkte selbst korrigierten, und verweisen auf die historische Resilienz der Arbeitsmärkte. Zwischen diesen Polen liegt ein eher inkrementeller Ansatz, der KI als Branche‑für‑Branche‑Herausforderung behandelt statt als einen einzigen, allesumfassenden Schock.
Sektorspezifische Politik könnte sich darauf konzentrieren, wie KI in bestimmten Industrien eingeführt wird und unter welchen Bedingungen dies geschieht. Im Gesundheitswesen könnten Regulierungsbehörden beispielsweise KI‑Werkzeuge fördern, die Klinikpersonal ergänzen statt ersetzen, und Erstattungsregeln an nachgewiesene Verbesserungen bei Patientenergebnissen und Arbeitsqualität knüpfen. In Logistik und Lagerhaltung, wo Automatisierung schnell große Mengen an Beschäftigten verdrängen kann, könnten politische Vorgaben Vorankündigungsfristen, Übergangspläne oder Mittel für Umschulungen verlangen, wenn Unternehmen KI‑getriebene Systeme in großem Maßstab einführen.
Ein weiterer Hebel ist Eigentum. Wenn KI‑Systeme zur zentralen Infrastruktur vieler Sektoren werden, spricht einiges dafür, mit Modellen zu experimentieren, die Beschäftigten oder der Öffentlichkeit einen direkten Anteil an den Erträgen geben. Das könnte Mitarbeiterbeteiligungspläne in KI‑intensiven Firmen, Datentreuhandmodelle, die Lizenzierungserlöse mit Beitragenden teilen, oder öffentliche Angebote für grundlegende KI‑Dienste umfassen, die die Preissetzungsmacht dominanter privater Plattformen verringern. Keine dieser Ideen ist einfach, und jede bringt eigene Gestaltungsfragen mit sich, aber sie treffen direkt das von Altman hervorgehobene Problem der Verhandlungsmacht.
Letztlich geht es darum, ob politische Entscheidungsträger KI als nur einen weiteren Produktivitätsschock behandeln oder als einen Moment, der neue institutionelle Arrangements erfordert. Altmans Warnung vor einer Verschiebung der Hebelwirkung von Arbeit zu Kapital findet Resonanz, weil sie sichtbare Trends in den Daten mit plausiblen Szenarien über die KI‑Einsatzweise verbindet. Die bisherigen Erkenntnisse legen nahe, dass vertraute Instrumente wie UBI allein nicht ausreichen werden, um die Verhandlungsmacht der Beschäftigten angesichts rascher Automatisierung zu erhalten. Wenn Regierungen eine Zukunft vermeiden wollen, in der KI‑bedingte Gewinne hauptsächlich einer engen Klasse von Kapitalbesitzern zugutekommen, müssen sie über symbolische Lösungen hinausgehen und die unglamouröse Arbeit leisten, Regeln sektorspezifisch neu zu schreiben, die bestimmen, wer profitiert, wenn Maschinen lernen, das zu tun, was früher Menschen getan haben.