Warum die richtige Frage nicht lautet, ob KI Arbeit vernichtet
I. Eine Metapher, die zu oft bemüht wird
Fast jeder deutschsprachige Essay über KI und Arbeit beginnt inzwischen mit den Ludditen. Den englischen Textilarbeitern, die 1811 mechanische Webstühle zerstörten, weil sie ihre Lebensgrundlage bedroht sahen. Die rhetorische Bewegung ist immer dieselbe: Erst die Sympathie, dann die historische Pointe. Die Ludditen hatten Unrecht mit ihrer Prognose, die Industrialisierung wurde zum größten Beschäftigungsmotor der Geschichte, also seien auch die heutigen Sorgen vermutlich übertrieben.
Diese Figur ist intellektuell bequem, und sie ist Teil des Problems. Sie suggeriert, dass es hier um eine einzige Frage geht, die man empirisch oder historisch beantworten kann: Wird KI mehr Arbeitsplätze vernichten oder schaffen? Wer so fragt, hat die eigentliche Debatte bereits verfehlt.
Die tatsächlich relevante Frage ist nicht, ob menschliche Arbeit verschwindet. Sie wird nicht verschwinden, jedenfalls nicht absehbar. Die Frage ist, ob die ökonomische Kopplung zwischen menschlicher Arbeitskraft und gesellschaftlicher Wertschöpfung erhalten bleibt, die die industrielle Moderne ausgemacht hat. Und genau diese Kopplung steht zur Disposition, lange bevor der letzte Buchhalter durch ein Sprachmodell ersetzt wird.
Das ist nicht primär ein Technologiethema. Es ist ein Verteilungsthema. Und das macht es schwieriger, nicht leichter.
II. Warum die Anpassung bisher funktioniert hat
Um zu verstehen, warum die aktuelle Situation möglicherweise strukturell neu ist, lohnt ein genauerer Blick darauf, warum die früheren Disruptionen nicht zur vorhergesagten Katastrophe führten. Der Mechanismus ist nicht trivial und wird in populären Darstellungen oft verkürzt.
Der amerikanische Ökonom David Autor hat in seinem Aufsatz Why Are There Still So Many Jobs? (2015) eine wichtige Unterscheidung vorgenommen, die in der öffentlichen Debatte regelmäßig verschwindet. Technologische Automatisierung ersetzt nicht kognitive Arbeit pauschal, sondern zerlegt Tätigkeiten in Teilaufgaben. Routinekognitive Aufgaben, also regelbasierte, wiederholbare Denkarbeit, wurden bereits ab den 1980er Jahren durch Computer substituiert. Buchhaltung, einfache Sachbearbeitung, tabellengetriebene Analysen. Was dabei übrig blieb, waren zwei Kategorien: einerseits nicht-routine-manuelle Arbeit, die schwer zu digitalisieren war, also Pflege, Gastronomie, Handwerk, andererseits nicht-routine-kognitive Arbeit, also Urteilsarbeit, Koordination, Kreativität, komplexe Kommunikation.
In den USA hat sich die Beschäftigungsstruktur entlang dieser Linie polarisiert: Mitte geschrumpft, beide Ränder gewachsen. In Europa ist das Bild anders und zugleich zugespitzter. Eurofound hat in seiner Generationenanalyse (September 2025) gezeigt, dass die EU nicht primär polarisiert, sondern upgraded. Der Anteil professioneller Beschäftigung an der Gesamtbeschäftigung hat sich in einer Generation verdoppelt.
Die Datenlage dazu im Detail:
| Zeitraum | Kennzahl | Wert |
|---|---|---|
| 1995 | Anteil professioneller Beschäftigung, EU27 | 11 % |
| 2023 | Anteil professioneller Beschäftigung, EU27 | 22 % |
| 2011–2022 | Netto-Beschäftigungszuwachs EU27 gesamt | +13,0 Mio |
| 2011–2022 | davon im obersten Pay-Quintil | +9,1 Mio (ca. 70 %) |
| 2019–2024 | Netto-Beschäftigungswachstum EU27 | nahezu ausschließlich im obersten Pay-Quintil |
Quelle: Eurofound 2025
Während in den USA die Mitte schrumpfte und beide Ränder wuchsen, konzentrierte sich das europäische Beschäftigungswachstum dramatisch in der oberen Hälfte, insbesondere in der professionellen Spitze. Die Ausweichbewegung der Wissensarbeit ging in Europa nicht in zwei Richtungen, sondern fast nur in eine: nach oben.
Dieser Befund ist für die KI-Debatte zentraler, als er auf den ersten Blick wirkt. Wenn die europäische Mittelschicht ihren Erhalt über Jahrzehnte durch Aufstieg in die professionelle Schicht gesichert hat, und KI nun genau diese Schicht angreift, dann verschließt sich der bisher dominante Ausweichraum. Der Ort, an dem die Festung menschlicher Arbeit stehen sollte, ist für europäische Arbeitsmärkte nicht einer von mehreren, sondern fast der einzige gewesen.
Genau in diese Festung dringt generative KI jetzt ein.
III. Die eigentliche Zäsur: Nicht Substitution, sondern Entkopplung
Hier liegt der strukturelle Unterschied zu allen früheren technologischen Wellen. Die aktuellen Sprachmodelle und ihre Nachfolger automatisieren nicht primär Routinearbeit. Sie automatisieren Teile jener nicht-routine-kognitiven Tätigkeiten, die bisher als sicherer Ausweichraum galten. Texterstellung, Code-Entwicklung, juristische Analyse, medizinische Befundinterpretation, strategische Vorarbeit.
Damit verschiebt sich nicht nur die Substitutionsfrage, sondern etwas Grundsätzlicheres: Die über Jahrzehnte funktionierende Aufwärtsbewegung menschlicher Arbeit in immer abstraktere Schichten trifft zum ersten Mal auf eine Decke.
Entscheidend ist jedoch, dass diese Verschiebung nicht die Hauptgeschichte ist. Die Hauptgeschichte ist die Entkopplung.
Seit den 1970er Jahren ist in den USA ein Phänomen dokumentiert, das Erik Brynjolfsson und Andrew McAfee in The Second Machine Age (2014) als great decoupling bezeichnet haben. Die Arbeitsproduktivität wuchs kontinuierlich weiter, die Medianlöhne stagnierten real. Die Kapitalquote am Volkseinkommen stieg, die Lohnquote sank. Der Mechanismus, über den Jahrzehnte lang technologische Gewinne in breiten Wohlstand übersetzt wurden, begann zu stottern, lange bevor jemand von generativer KI sprach.
Die empirische Lage ist dabei komplizierter als das griffige Entkopplungsnarrativ. Je nachdem, welcher Preisindex, welche Lohndefinition und welche Zeitfenster zugrunde gelegt werden, variiert das Ausmaß erheblich. Unstrittig ist aber die Richtung: Die Produktivitätsgewinne der jüngeren Technologiezyklen sind nicht mehr primär bei den Arbeitseinkommen angekommen, sondern bei Kapitaleignern und einem schmalen Segment hochqualifizierter Spitzenverdiener.
Thomas Piketty hat in Das Kapital im 21. Jahrhundert (2013) die langfristige Dynamik benannt, in der die Kapitalrendite strukturell über dem Wirtschaftswachstum liegt. Das ist kein Naturgesetz, sondern ein Ergebnis institutioneller Arrangements. Aber es ist eine Dynamik, die durch KI eher verstärkt als abgeschwächt wird, weil KI-Systeme außergewöhnlich kapitalintensiv in der Entwicklung und außergewöhnlich skalierbar in der Anwendung sind.
Daron Acemoglu und Simon Johnson haben diese Beobachtung in Power and Progress (2023) institutionentheoretisch eingeordnet. Ihr Argument lautet: Die aktuelle Generation von KI-Anwendungen tendiert zu dem, was sie so-so technologies nennen. Technologien, die menschliche Arbeit substituieren, ohne zugleich komplementäre produktive Funktionen für Menschen zu schaffen. Das ist kein zwingendes Merkmal der Technologie selbst. Es ist eine Folge davon, welche Anwendungen unter welchen institutionellen Anreizen entwickelt werden.
Wer das ernst nimmt, muss die öffentliche KI-Debatte neu sortieren. Die dominante Frage ist nicht, wie viele Jobs verloren gehen. Sondern: Werden die Produktivitätsgewinne so verteilt, dass Arbeit weiterhin das zentrale Instrument gesellschaftlicher Teilhabe bleiben kann? Oder entsteht eine Ökonomie, in der Wachstum und Lohneinkommen dauerhaft auseinanderfallen?
IV. Was in deutschen Unternehmen gerade wirklich passiert
Wer beruflich beobachtet, wie Unternehmen aktuell KI einführen, sieht ein Muster, das in der öffentlichen Debatte kaum vorkommt. Die größten Produktivitätsversprechen werden nicht mit Blick auf disruptive Neuschaffungen formuliert, sondern mit Blick auf Kostensenkung in bestehenden Prozessen. Support-Tickets, Dokumentationspflichten, Vertragsprüfungen, interne Recherche, juristische Vorarbeit, Reporting.
Das sind die Tätigkeiten, in denen sich in den vergangenen zwanzig Jahren die sogenannten besseren Bürojobs der deutschen Wirtschaft konzentriert haben. Genau dort, wo die Mittelschicht ihre Ausweichbewegung nach Autors Logik hingetragen hatte. In vielen Unternehmen werden aktuell nicht Stellen gestrichen, aber Nachbesetzungen verzögert oder unterlassen, Junior-Positionen reduziert, Ausbildungsplätze in bestimmten Fachrichtungen zurückgefahren. Die Effekte sind weniger sichtbar als eine Entlassungswelle, aber sie sind kumulativ und strukturell.
Die zweite Beobachtung ist wichtiger. In fast allen KI-Einführungen, die ich aus der Nähe kenne, ist die Frage der Verteilung der Effizienzgewinne schlicht nicht gestellt worden. Die betriebswirtschaftliche Logik ist klar: Ein Mitarbeiter, der mit KI-Unterstützung das doppelte Volumen bewältigt, produziert Produktivitätsgewinne, die automatisch dem Unternehmen zufallen. Dass diese Gewinne zumindest teilweise beim Mitarbeiter oder in reduzierter Arbeitszeit ankommen könnten, ist in den wenigsten Fällen vorgesehen. Es gibt keine Verhandlung darüber, weil es keine etablierte Kategorie dafür gibt.
Das ist der Mechanismus der Entkopplung in Echtzeit. Nicht die Science-Fiction der massenhaften Joblosigkeit, sondern die leise Umschichtung der Verhandlungsmacht zwischen Kapital und Arbeit, eine Produktivitätsrunde nach der anderen.
Die deutsche Besonderheit liegt dabei in den Institutionen, die diese Umschichtung theoretisch bremsen könnten. Tarifbindung, Mitbestimmung, Betriebsräte, duale Ausbildung. Keines dieser Instrumente ist auf die spezifische Frage zugeschnitten, wie mit KI-induzierten Produktivitätsgewinnen umgegangen wird. Aber sie existieren, und sie könnten zugeschnitten werden. In den meisten anderen Volkswirtschaften existieren sie nicht einmal in rudimentärer Form.
V. Vier Szenarien für die nächsten zwanzig Jahre
Die Bandbreite plausibler Entwicklungen ist erheblich. Vier Szenarien verdienen Aufmerksamkeit.
Das Schumpeter-Szenario: Das Muster wiederholt sich
Die historisch am stärksten gestützte Annahme ist, dass sich das bekannte Muster fortsetzt. KI verdrängt bestimmte Tätigkeiten, schafft aber neue Berufsfelder, die wir heute noch nicht antizipieren. Die Voraussetzungen sind allerdings anspruchsvoll. Produktivitätsgewinne müssen zu Nachfrage nach neuen Gütern und Dienstleistungen führen. Menschliche Arbeit muss in diesen neuen Feldern wertgeschätzt werden. Und die Qualifikationsanpassung muss schnell genug erfolgen.
Das Weltwirtschaftsforum schätzte 2023 in seinem Future of Jobs Report, dass KI und Automatisierung global bis 2027 rund 83 Millionen Arbeitsplätze verdrängen, aber 69 Millionen neue schaffen könnten. Die Zahlen sind notorisch unsicher und methodisch angreifbar. Bemerkenswert ist aber die Richtung der Revision gegenüber früheren Berichten: Die Netto-Bilanz hat sich ins Negative verschoben.
Das Entkopplungs-Szenario: Wachstum ohne Beteiligung
Das volkswirtschaftlich beunruhigendste Szenario ist gleichzeitig das am wenigsten dramatische in seiner Erscheinung. Das BIP wächst. Unternehmen werden produktiver. Kapitaleigner profitieren erheblich. Aber die Lohnquote am Volkseinkommen sinkt weiter, und die Medianeinkommen stagnieren oder steigen deutlich langsamer als die Produktivität.
Es entsteht keine sichtbare Massenarbeitslosigkeit. Stattdessen eine schleichende Prekarisierung der mittleren Qualifikationsebenen, eine wachsende Spreizung zwischen Kapital- und Arbeitseinkommen, eine Mittelschicht, die ihren Lebensstandard nur noch über private Verschuldung halten kann, und politische Verwerfungen, die sich an Themen abarbeiten, die mit der eigentlichen ökonomischen Ursache nur lose zusammenhängen. Dieses Szenario wirkt unspektakulär, weil es keinen erkennbaren Schockmoment hat. Genau deshalb ist es schwer zu adressieren.
Das Physik-Szenario: Die Skalierung endet
Die gesamte aktuelle KI-Ökonomie basiert auf der Annahme, dass die Fähigkeiten von Modellen durch weitere Skalierung kontinuierlich wachsen. Mehr Parameter, mehr Daten, mehr Rechenleistung, mehr Energie. Diese Annahme ist eine empirische Hypothese, kein Naturgesetz. Sie könnte in mehreren Dimensionen an Grenzen stoßen, und einige dieser Grenzen sind nicht Zukunftsprojektion, sondern bereits eingetreten.
Am sichtbarsten ist die Energie- und Netzkapazitätsgrenze. Irland hat 2021 ein faktisches Moratorium für neue Rechenzentrumsanschlüsse im Großraum Dublin verhängt, das erst im Dezember 2025 durch eine Regelung abgelöst wurde, die neue Anschlüsse nur noch bei vollständiger eigener Stromversorgung zulässt. Rechenzentren verbrauchen dort inzwischen etwa ein Viertel des gesamten nationalen Stroms, mehr als alle städtischen Haushalte zusammen. Die niederländische Regierung hat seit 2019 fortlaufende Restriktionen für Hyperscale-Rechenzentren über 70 Megawatt IT-Last, die diese auf wenige designierte Standorte im Norden des Landes beschränken. In West-London blockieren Netzkapazitätsgrenzen in drei Boroughs entlang der M4 den Wohnungsbau für mehr als ein Jahrzehnt, weil die Rechenzentren den Stromanschluss bereits belegen.
Diese Einzelfälle addieren sich zu einem strukturellen Befund. Die IEA dokumentiert, dass die Wartezeiten für Netzanschlüsse in der EU zwischen zwei und zehn Jahren liegen, in den FLAP-D-Hubs (Frankfurt, London, Amsterdam, Paris, Dublin) durchschnittlich zwischen sieben und zehn Jahren. Die direkten Netzüberlastungskosten summierten sich laut ACER 2024 auf 4,3 Milliarden Euro. Würde die angekündigte Rechenzentrumspipeline in Deutschland und Frankreich vollständig realisiert, läge der Anteil an der Peak-Stromnachfrage bei fünf bis zehn Prozent des heutigen Niveaus. In Spanien und den Niederlanden bei rund zehn Prozent.
Dazu kommen weitere Engpässe. Die Chipdichte nähert sich fundamentalen physikalischen Grenzen, Kühlung und Speicherbandbreite werden zu Engpässen, hochwertige Trainingsdaten für Sprachmodelle sind begrenzt. Wenn die Skalierungskurve flacht, verändert sich das wirtschaftliche Bild erheblich. Die Entkopplung verschwindet dadurch nicht, weil sie bereits im bisherigen Fähigkeitsniveau angelegt ist, aber die Dramatik der Substitutionsprognosen relativiert sich. Die Verteilungsfrage bleibt. Die Science-Fiction verschiebt sich.
Dieses Szenario wird im Mainstream-Diskurs systematisch unterschätzt, weil es weder die Hoffnungen der KI-Industrie noch die Ängste ihrer Kritiker bedient.
Das Post-Knappheits-Szenario: Arbeit als Sinn, nicht als Notwendigkeit
Das radikalste Szenario stellt die industriegesellschaftliche Grundprämisse in Frage: dass menschliche Arbeit die primäre Quelle sowohl ökonomischen Einkommens als auch gesellschaftlicher Teilhabe sein muss. Daniel Susskind argumentiert in A World Without Work (2020), dass eine solche Welt keine Katastrophe sein muss, aber eine fundamentale Neugestaltung der Verteilungsinstitutionen erfordert. Bedingungsloses Grundeinkommen, Bürgerdividenden, kollektive Eigentumsformen am produktiven Kapital.
Ob dieses Szenario wünschenswert oder durchsetzbar ist, ist eine offene Frage. Dass es historisch beispiellos wäre, steht außer Zweifel.
VI. Was entschieden werden muss, und wer es nicht entscheidet
Welches dieser Szenarien sich durchsetzt, hängt weniger von der Technologie ab als von institutionellen Entscheidungen. Diese Lektion aus der Geschichte früherer industrieller Umbrüche ist einfach und wird trotzdem regelmäßig ignoriert. Die Dampfmaschine hat nicht automatisch zu Kinderarbeit geführt. Sie hat zu einer wirtschaftlichen Dynamik geführt, in der Kinderarbeit rentabel wurde, solange keine Gegeninstitutionen existierten. Erst Sozialgesetzgebung, Gewerkschaften und Bildungspflicht haben aus dem technologischen Fortschritt einen breiten Wohlstand gemacht.
Für die aktuelle Situation stellen sich drei institutionelle Grundfragen, die in Deutschland und der EU besser adressierbar sind als in den meisten anderen Wirtschaftsräumen.
Die erste betrifft die Verteilung der Produktivitätsgewinne. Wenn KI die Kapitalrendite signifikant erhöht, wie wird sichergestellt, dass diese Gewinne zu einem relevanten Anteil in der Breite ankommen? Mögliche Antworten reichen von progressiver Unternehmensbesteuerung über Staatsfonds nach norwegischem Muster bis zu einer KI-spezifischen Produktivitätsdividende. Keines dieser Modelle ist trivial umzusetzen. Alle wären umsetzbar, wenn politisch entschieden.
Die zweite betrifft die Qualifikationsinfrastruktur. Die deutsche duale Ausbildung ist eine der leistungsfähigsten der Welt, aber sie ist auf Berufsbilder zugeschnitten, die in mehreren Feldern gerade obsolet werden. Lebenslange Umschulung, die öffentlich finanziert und sozial abgesichert ist, wäre die adäquate Antwort. Sie existiert in Ansätzen, nicht in einer Größenordnung, die der Dynamik angemessen wäre.
Die dritte betrifft die betriebliche Ebene. Wenn Produktivitätsgewinne durch KI-Einführung in Unternehmen entstehen, gibt es in Deutschland mit Betriebsräten und Mitbestimmung ein Instrumentarium, das in der Verhandlung über die Verteilung dieser Gewinne eine Rolle spielen könnte. Aktuell spielt es diese Rolle kaum, weil die Kategorien fehlen, in denen KI-Produktivitätsgewinne mitbestimmungsrelevant adressiert werden. Das ist eine Lücke, die tarifpolitisch und gesetzlich geschlossen werden kann.
Die am meisten diskutierte Antwort auf die Entkopplung ist in dieser Aufzählung bewusst nicht zuerst genannt. Das bedingungslose Grundeinkommen ist das prominenteste Instrument in der Debatte und verdient eine differenzierte Behandlung, die diesem Essay nicht zur Verfügung steht. Für den Moment genügt der analytische Hinweis: Ein BGE adressiert die Einkommensseite des Entkopplungsproblems, lässt aber die Machtseite unberührt. Es verändert, wie Menschen überleben, wenn Arbeit ihre verteilungswirksame Funktion verliert. Es verändert nicht, wer über die Produktivitätsgewinne aus KI verfügt. Acemoglus Kritik an so-so technologies würde sich in einem BGE-System fortschreiben, nur auf einem etwas höheren Existenzminimum. Das ist keine Ablehnung des Instruments, sondern eine Präzisierung seiner Reichweite. Die Entkopplungsfrage hat eine Umverteilungs- und eine Machtdimension, und die zweite lässt sich mit einem BGE allein nicht adressieren.
Alle diese Entscheidungen werden gerade nicht getroffen. Es gibt keine ernsthafte Bundestagsdebatte über die Verteilung von KI-induzierten Produktivitätsgewinnen. Es gibt keine tarifpolitische Initiative, die sich systematisch mit dieser Frage beschäftigt. Die einschlägigen Diskussionen auf EU-Ebene konzentrieren sich, völlig legitim, auf Regulierungsfragen des AI Act, also auf Sicherheit, Transparenz und Grundrechtsschutz. Die Verteilungsfrage ist kein Bestandteil dieser Regulierung.
Damit überlässt die politische Ebene die Entkopplungsdynamik dem Markt. Und der Markt hat kein eingebautes Interesse an symmetrischer Verteilung.
VII. Ein unbequemer Schluss
Die öffentliche KI-Debatte wird derzeit zwischen zwei Polen geführt. Der eine Pol malt die Katastrophe der vollautomatisierten Arbeitslosigkeit. Der andere beruhigt mit dem Hinweis, frühere technologische Revolutionen hätten auch immer neue Arbeit geschaffen. Beide Pole verfehlen das eigentliche Thema.
Das eigentliche Thema ist, dass die ökonomische Integration der Moderne, also die Verbindung zwischen Produktivitätswachstum und breitem Lohnwachstum, bereits seit einem halben Jahrhundert nachlässt und dass KI diesen Prozess mit hoher Wahrscheinlichkeit beschleunigt. Nicht durch spektakuläre Entlassungswellen, sondern durch eine kumulative Verschiebung der Verhandlungsmacht, eine Produktivitätsrunde nach der anderen, meist ohne Schlagzeilen.
Wer in dieser Situation auf die historische Analogie der Ludditen verweist, verwechselt die Frage. Die Ludditen hatten Unrecht mit ihrer Prognose über Arbeitsplatzzahlen. Sie hatten allerdings Recht mit der Intuition, dass technologischer Fortschritt ohne institutionelle Einbettung keine Naturgewalt ist, die automatisch breiten Wohlstand produziert. Diese Einbettung wurde im 19. und 20. Jahrhundert hart erkämpft, gegen erhebliche Widerstände. Nichts garantiert, dass sie im 21. Jahrhundert automatisch weiter funktioniert.
Die KI-Revolution ist weder Apokalypse noch Heilsversprechen. Sie ist ein Verteilungsproblem, das sich als Technologiefrage tarnt. Und ein Verteilungsproblem, das nicht adressiert wird, löst sich nicht von selbst. Es löst sich nur zu Ungunsten derjenigen, die keine Verhandlungsmacht mehr haben, sich zu wehren.
Quellen und weiterführende Literatur:
- Eurofound: Structural change in EU labour markets: A generation of employment shifts (2025)
- IMF Staff Discussion Note: Gen-AI: Artificial Intelligence and the Future of Work (SDN/2024/001, Januar 2024)
- David Autor: Why Are There Still So Many Jobs? (Journal of Economic Perspectives, 2015)
- Melanie Arntz, Terry Gregory, Ulrich Zierahn: The Risk of Automation for Jobs in OECD Countries (OECD Working Paper, 2016)
- Brynjolfsson, E. / McAfee, A.: The Second Machine Age (W.W. Norton, 2014)
- Acemoglu, D. / Johnson, S.: Power and Progress (PublicAffairs, 2023)
- Susskind, D.: A World Without Work (Metropolitan Books, 2020)
- Piketty, T.: Das Kapital im 21. Jahrhundert (C.H. Beck, 2014)
- World Economic Forum: Future of Jobs Report 2023
- IEA: Overcoming energy constraints is key to delivering on Europe's data centre goals (2025)
- Datacenterdynamics: The ongoing impact of Amsterdam's data center moratorium (2024)
- Frey, C.B. / Osborne, M.A.: The Future of Employment (Oxford Martin School, 2013)
- Keynes, J.M.: Economic Possibilities for our Grandchildren (1930)