Ein knappes Achtmonats-Feldstudium in einem US-Tech-Unternehmen zeigt: KI verändert Arbeit — oft nicht wie erwartet. Als Aufhänger dient eine kleine, erzählerische Beobachtung: In einem Berliner Startup begann eine Produktmanagerin aus Neugier, KI-Prompts während ihrer Pausen zu testen; daraus entstanden neue Aufgaben und ungeplante Review-Schleifen. Diese Szene illustriert den Kern der Debatte: Generative KI schafft Möglichkeiten — und Fallen. Der Beitrag nimmt den am 9. Februar 2026 in der Harvard Business Review erschienenen Artikel von Aruna Ranganathan und Xingqi Maggie Ye ernst, widerspricht seiner Deutung teils bewusst und schlägt eine «menschenzentrierte Kontrollsicht» vor.
1) Was die HBR-Studie wirklich zeigt — Kurzportrait
Kernbefund: Generative KI führt zur Arbeitsintensivierung
Der Harvard-Business-Review-Artikel „AI Doesn’t Reduce Work—It Intensifies It“ (9. Februar 2026) von Aruna Ranganathan und Xingqi Maggie Ye widerspricht einer verbreiteten Erwartung: Generative KI senkt die Arbeitslast nicht automatisch. Stattdessen zeigt die Studie eine klare Arbeitsintensivierung KI—Arbeit wird dichter, kleinteiliger und mental anstrengender. Damit wird die Arbeitsplatz Transformation weniger als „Automatisierung“, sondern als Veränderung von Tempo, Rollen und Arbeitsgefühl sichtbar.
Aruna Ranganathan: „Generative AI verändert nicht nur was getan wird, sondern wie Arbeit empfunden wird.“
Empirie: Acht Monate Feldforschung statt Annahmen
Die Autoren stützen sich auf eine achtmonatige Untersuchung in einem US-Technologieunternehmen mit rund 200 Mitarbeitenden. Die Datengrundlage ist ungewöhnlich nah am Alltag:
- wöchentliche Vor-Ort-Beobachtungen (ethnografisch)
- Analyse interner Kommunikation, u. a. über Slack
- über 40 Interviews mit Mitarbeitenden
So wird sichtbar, wie KI-Nutzung tatsächlich in Teams „einsickert“—oft ohne formale Regeln, aber mit spürbaren Nebenwirkungen.
Drei Mechanismen, die Arbeit verdichten
- Task Expansion: Mitarbeitende übernehmen neue Aufgaben, die früher anderen Rollen oder externen Partnern zugeordnet waren. Das erzeugt zusätzliche, oft informelle Arbeitsstränge—inklusive mehr Abstimmung und „Nebenbei-Review“ durch Engineers.
- Blurred Boundaries: Weil KI-Tools so leicht zugänglich sind, werden Aufgaben in Pausen, während Meetings oder nach Feierabend gestartet. Erholung wird fragmentiert; Arbeit wird „ambient“ und ständig verfügbar.
- Multitasking: KI erleichtert parallele Aufgabenstränge und das Wiederaufnehmen aufgeschobener Themen. Das wirkt produktiv, erhöht aber die kognitive Last und die Fehleranfälligkeit.
Xingqi Maggie Ye: „Die Gefahr liegt im silent workload creep – Mitarbeitende erweitern ihre Aufgaben oft freiwillig.“
Folgen: Qualität, Gesundheit und Bindung geraten unter Druck
Die Studie beschreibt Risiken, die sich schleichend aufbauen: weniger wirksame Pausen, höhere mentale Belastung, mehr Kontextwechsel—und damit ein steigendes Risiko für Fehler, Überforderung, Burnout und Fluktuation. Entscheidend ist: Die Intensivierung entsteht häufig ohne ausdrückliche Vorgaben durch Führung, sondern durch neue Erwartungen, die sich im Arbeitsalltag etablieren.

2) Gegenlesung: Warum KI Arbeit reduzieren kann — Die «Human Control» Perspektive
Der HBR-Befund zum Produktivitätsparadoxon ist wichtig: In vielen Teams führt Generative KI zu Task Expansion, verschwimmenden Grenzen und mehr Multitasking. Aus der «Human Control» Perspektive ist diese Intensivierung jedoch nicht zwangsläufig. Sie entsteht oft dort, wo Governance-Defizite den KI-Einsatz unstrukturiert lassen: unklare Rollen, fehlende Standards und keine verbindlichen Routinen. Dann wird KI zum Beschleuniger von Zusatzarbeit – nicht zum Entlastungshebel.
Intensivierung ist teilbar: Tool-Design vs. Governance
Die HBR-Mechanismen lassen sich in zwei Einflussbereiche zerlegen. Tool-Design kann Fragmentierung erleichtern (z.B. „mal schnell prompten“). Entscheidend ist aber Governance: Wenn niemand festlegt, welche Aufgaben mit KI erledigt werden sollen, wie Qualität geprüft wird und wer wofür verantwortlich ist, wächst Arbeit still und informell. Die Gegenlesung lautet: Nicht KI per se führt zur Task Expansion, sondern fehlende Steuerung.
Praxisbeispiel: HR-Reports in 60% weniger Zeit – ohne Review-Schleifen
In einer fiktiven HR-Abteilung wurden Routine-Reports (Monatsübersichten, Abwesenheitsanalysen, Standardtexte) mit einer verbindlichen AI Practice erstellt. Ergebnis: 60% weniger Zeit pro Report, ohne zusätzliche Korrekturrunden. Der Schlüssel war nicht „mehr KI“, sondern Standardisierung:
- Standard-Prompts für wiederkehrende Reporttypen (Ton, Struktur, Datenfelder).
- Prüfprotokolle (Checkliste: Datenquelle, Plausibilität, Datenschutz, Freigabe).
- Role-based checks and balances: HR erstellt, Controlling prüft Zahlenlogik, Legal prüft sensible Formulierungen.
Hebel für echte Entlastung durch AI Practice
Brancheninsights (u.a. Deloitte/WEF-Synthesen) zeigen: Erwartete Produktivitätsgewinne liegen oft nur bei ca. 1,4%, und rund 90% der Firmen berichten bislang begrenzte Effekte. Das spricht für Umsetzungsprobleme, nicht für fehlendes Potenzial. Wirksame Hebel sind:
- Nutzungslimits und klare „No-KI“-Zonen (z.B. nach Feierabend, in Meetings).
- Sequencing: Fokusphasen statt Dauer-Multitasking.
- Prompt- und Review-Standards, um Nacharbeit zu senken.
- Rollenklärung: Wer prüft was, mit welcher Tiefe und Frist.
Dr. Lena Berger: "Kontrollierte Implementierung verwandelt KI von einer Ablenkung in einen echten Hebel zur Arbeitsreduktion."

3) Drei konkrete AI Practices, die Arbeit wirklich entlasten
Der HBR-Artikel zeigt: Generative KI senkt die Arbeitslast oft nicht, sondern verstärkt sie durch Task Expansion, verschwimmende Grenzen und Multitasking. Entlastung entsteht daher nicht durch „mehr KI“, sondern durch eine verbindliche AI Practice als Organisationsstandard. Aruna Ranganathan bringt es auf den Punkt:
„AI Practices sind kein Nice-to-have, sie sind Organisationsdesign.“
1) Intentional Pauses: feste Prüfpausen nach KI-Sprints
Gezielte Pausen verringern kognitive Belastung, weil Entscheidungen nicht im Dauerlauf getroffen werden. Nach jedem KI-gestützten Sprint werden 10–15 Minuten blockiert: Ergebnis prüfen, Risiken markieren, nächste Schritte entscheiden. Das stoppt „silent workload creep“ und schützt Menschliche Fähigkeiten wie Urteilsvermögen und Priorisierung.
- Regel: Keine Weitergabe von KI-Outputs ohne Pause + Kurzcheck.
- Slack: Bot-Erinnerung im Projektkanal („Pause & Review jetzt“).
- Review-Sheet (rollenbasiert): Fakten, Tonalität, Compliance, offene Fragen.
2) Sequencing: klare Phasen statt paralleler Dauerprozesse
Sequencing ersetzt Multitasking durch strukturierte Phasen. Teams arbeiten bewusst nacheinander: Ideation → KI-Sprint → Human-Review → Sign-off. Das reduziert Kontextwechsel und verhindert, dass KI-Arbeit „nebenbei“ in Meetings oder nach Feierabend passiert. Xingqi Maggie Ye betont:
„Sequencing und Human Grounding schützen Qualitätsstandards.“
| Phase | Beispiel-Zeitfenster | Ziel |
|---|---|---|
| Ideation | 1 Tag | Problem klären, Kriterien festlegen |
| KI-Sprint | 2 Stunden | Varianten erzeugen, Optionen sammeln |
| Human-Review | 30–60 Minuten | Bewerten, kürzen, entscheiden |
| Sign-off | 10 Minuten | Freigabe, Verantwortliche benennen |
Implementierung: Prompt-Templates und ein no-KI-Slot für Deep Work (z. B. 90 Minuten ohne Tools/Chats).
3) Human Grounding: soziale Routinen als Qualitäts- und Innovationsschutz
Wenn Generative KI Einzelarbeit beschleunigt, müssen Teams soziale Kohärenz aktiv sichern. Klare Regeln sind wirksamer als Empfehlungen.
- Täglicher Check-in (10 Min): Was wird mit KI gemacht, was bewusst ohne?
- Peer-Review (rotierend): Zwei Augen auf kritische KI-Ergebnisse.
- Betreuung: feste Ansprechperson für Prompting, Grenzen, Eskalation.
Slack bleibt zentral, aber mit Kanal-Richtlinien: ein Kanal für KI-Entwürfe, ein Kanal für Entscheidungen, damit Arbeit nicht „ambient“ wird.

4) HR, Governance und Upskilling — Politiken für nachhaltige Entlastung
Die Studie von Ranganathan und Ye (HBR, 9. Februar 2026) zeigt: Generative KI senkt Arbeit nicht automatisch, sie kann sie intensivieren—durch Task Expansion, Blurred Boundaries und mehr Multitasking. Damit die Arbeitsplatz Transformation nicht in „silent workload creep“ endet, braucht es HR als Gestalter von Lern- und Governance-Infrastruktur, nicht nur als Tool-Einkäufer.
HR Technologie als Hebel: Entlastung nur mit Lernzeit
HR Technologie kann monotone Aufgaben reduzieren (z. B. Vorselektion, Dokumentation, Standard-Reports). Der Entlastungseffekt entsteht aber erst, wenn HR parallel Upskilling Reskilling organisiert: Mitarbeitende müssen lernen, KI-Ergebnisse zu prüfen, sinnvoll zu prompten und Arbeit zu sequenzieren. Als Richtwert können Unternehmen 10–20% Lernzeit pro Quartal fest einplanen—nicht „on top“, sondern als Teil der Kapazität.
Deloitte Insights (2026): "HR-Technologien können Routinearbeit verringern — mit dem richtigen Governance-Rahmen."
Governance: Regeln und Messgrößen jenseits von Output
Weil Mitarbeitende KI oft „nebenbei“ nutzen, reichen Output-KPIs nicht aus. Governance sollte klare Nutzungsrichtlinien mit Gesundheits- und Qualitätsmetriken verbinden. Wichtig ist auch Rollenklärung: Wenn Produktmanagement oder Design plötzlich Engineering-Aufgaben übernehmen, braucht es definierte Übergaben, Review-Pflichten und Grenzen—sonst wächst Arbeit in andere Teams hinein.
- Nutzungsrichtlinien: wann KI erlaubt ist, wann Human-Review Pflicht ist, welche Daten tabu sind.
- AI Practices als Standard: Intentional Pauses, Sequencing, Human Grounding (z. B. Check-ins, Peer-Reviews).
- Messung von Erholungsphasen: „Zeit-nach-Arbeit“, Pausen-Compliance, Meeting-Dichte—zur Burnout-Prävention.
Karrierepfade und Budget: neue Rollen, klare Verantwortung
HR sollte Karrierepfade für KI-gestützte Arbeit definieren und Reskilling finanzieren. Rollenbeispiele: KI-Operator (Workflow-Ausführung), Prompt-Designer (Aufgabenstruktur), Human-Reviewer (Qualität/Risiko), KI-Ethikverantwortlicher (Standards, Audits).
| Messgröße | Ziel |
|---|---|
| Arbeitsintensivierung (Task-Zuwachs) | Task Expansion sichtbar machen |
| Zeit-nach-Arbeit | Blurred Boundaries begrenzen |
| Erholungsindikatoren | Burnout-Risiko senken |
| Mitarbeiterfluktuation | Frühwarnsignal für Überlast |
Für den Start eignen sich Pilotprogramme mit Teamregeln, ergänzt durch Lernmaterial (z. B. Leader-Profile-Quiz, Multimedia-Case “Marquee: The Business of Nightlife”) und kurze Review-Zyklen, um Governance und Upskilling Reskilling iterativ zu schärfen.
5) Wild Cards: Szenarien, Analogien und ein kurzes Gedankenspiel
Wild Cards sind bewusst nicht empirisch. Sie helfen Teams, die HBR-Erkenntnisse zur Arbeitsintensivierung durch Generative KI neu zu sehen: Task Expansion, verschwimmende Grenzen und Multitasking wirken oft wie „mehr Output“, sind aber häufig ein Produktivität Paradoxon. Gerade deshalb lohnt ein gedanklicher Sprung nach vorn.
Szenario: Der Aggregator-Bot macht „silent workload creep“ sichtbar
Angenommen, ein Unternehmen führt einen Aggregator-Bot ein, der Prompts standardisiert, Kontext anhängt und Ergebnisse automatisch zur Prüfung an die richtigen Menschen verteilt. Der Bot erkennt zudem neue, informelle Aufgabenstränge (z. B. „Kannst du kurz den KI-Entwurf prüfen?“) und ordnet sie einem klaren Review-Prozess zu. Technische Lösungen wie solche Aggregator-Bots können den Governance-Aufwand senken, weil weniger ad hoc in Slack geklärt werden muss.
In einer Modellannahme sinken dadurch informelle Zusatzstränge um bis zu 30%—nicht weil weniger gearbeitet wird, sondern weil Arbeit sichtbar, zugewiesen und begrenzt wird. Qualität steigt, weil Reviews nicht mehr zufällig passieren, sondern Teil der Mensch KI Kollaboration werden: KI liefert Tempo, Menschen liefern Verantwortung.
Dr. Lena Berger: "Ohne Menschen in der Kontrollschleife bleibt KI nur ein Beschleuniger, kein Entlaster."
Analogie: Generative KI ist Espresso
Als Espresso wirkt Generative KI in kleinen Dosen belebend: schneller Entwurf, bessere Varianten, weniger Leerlauf. In Dauerschleife wird sie riskant: Pausen verschwinden, der Kopf springt zwischen Tasks, und der Tag fühlt sich „voll“ an, obwohl wenig abgeschlossen wird. Analogien helfen Teams, abstrakte Risiken wie „Blurred Boundaries“ sofort zu begreifen.
Mini-Gedankenspiel: Sequencing statt Dauer-Prompting
Eine fiktive Designerin führt eine einfache Sequencing-Regel ein: erst 45 Minuten Fokus ohne KI, dann 15 Minuten KI-Phase, danach ein kurzer Human-Check-in. Nach zwei Wochen hat sie 30% weniger Nacharbeit, weil weniger halbfertige KI-Schnipsel in Meetings landen und Entscheidungen bewusster fallen.
Abschluss: Ein kleines Experiment mit großem Hebel
Als Schlussübung empfiehlt sich ein einwöchiger Prompt-Audit im Team: Welche Prompts erzeugen neue Arbeit, welche sparen sie wirklich? Kleine Audits zeigen oft große Hebel—und machen das Produktivität Paradoxon steuerbar, bevor es zur neuen Normalität wird.


