Geistige Arbeit galt lange als etwas, das man sich erarbeitet: ein individueller Besitzstand, gespeist aus Wissen, Erfahrung, Stil und all den mühsam aufgebauten Routinen, die Expertise ausmachen. Doch seit generative KI in wenigen Sekunden Texte, Ideen, Analysen und Varianten produziert, stellt sich die Frage neu: Was bleibt eigentlich „uns“, wenn Maschinen schneller schreiben, strukturieren und recherchieren können als wir selbst?
Verhaltensökonomisch betrachtet haben wir uns an die Illusion gewöhnt, dass geistige Arbeit etwas ist, das man besitzt. Menschen hängen an dem, was sie können, weil der sogenannte Endowment Effect dafür sorgt, dass wir unsere eigenen Fähigkeiten höher bewerten als jede Alternative. Doch KI greift nicht diesen Besitz an – sie greift den Prozess an. Was früher als geistige Leistung galt, ist heute oft Routine, die sich algorithmisch perfekt abbilden lässt. Und genau das erzeugt die Irritation: Nicht, dass KI „besser“ wäre, sondern dass sie schneller ist.
Dabei lohnt sich ein nüchterner Blick. Geistige Arbeit war schon immer mehr als der fertige Text oder die ausgearbeitete Analyse. Sie besteht aus vier Schritten: Wahrnehmen, Bewerten, Entscheiden und Verantwortung übernehmen. KI kann den ersten Teil – das Wahrnehmen und Sortieren – beeindruckend schnell erledigen. Aber die Bewertung, die Priorisierung und das verantwortliche Entscheiden bleiben zutiefst menschlich.
Genau diese Trennung macht den neuen Umgang mit KI so anspruchsvoll. Die Verhaltensökonomie zeigt deutlich, warum wir trotzdem so ambivalent reagieren. Verlustaversion sorgt dafür, dass wir den Verlust einer Aufgabe emotional stärker empfinden als den möglichen Gewinn durch Entlastung. Der Status-quo-Bias hält uns an gewohnte Arbeitsweisen gebunden, selbst wenn KI längst bessere Optionen anbietet. Gleichzeitig führt Automatisierungsbias dazu, dass wir geneigt sind, algorithmischen Vorschlägen blind zu vertrauen – ein Risiko, das mit der steigenden Leistungsfähigkeit der Modelle wächst. Und natürlich spielt auch Effort Justification hinein: Wer Jahre in akademische oder berufliche Ausbildung investiert hat, erlebt KI nicht als Werkzeug, sondern als Bedrohung der eigenen Identität.
Interessanterweise reagiert der EU AI Act genau auf diese psychologischen Mechanismen. Das Gesetz verlangt ausdrücklich, dass KI nicht manipulierend, übergriffig oder verdeckt steuernd wirken darf. Es schreibt fest, dass Menschen jederzeit nachvollziehen können müssen, welche Rolle ein KI-System in einem Entscheidungsprozess spielt. Und es fordert Human Oversight – also die Fähigkeit, ein System zu verstehen, zu überwachen und im Zweifel zu überstimmen. Damit macht die EU deutlich: Die Delegation geistiger Arbeit darf nicht so weit gehen, dass der Mensch nur noch formal verantwortlich ist, während die KI faktisch die Entscheidungen vorbereitet, bewertet und strukturiert.
Autonomie geht nicht durch laute Umstürze verloren. Sie geht verloren, wenn Menschen sich daran gewöhnen, Entscheidungen aus Bequemlichkeit oder Zeitdruck an Maschinen auszulagern, ohne deren Logik zu verstehen.
Deshalb braucht es eine neue Art, geistige Arbeit zu strukturieren. Der Fehler wäre, KI als Ersatz zu betrachten. Der klügere Weg ist, KI als Erweiterung der menschlichen Kapazität zu begreifen. Die eigentliche Frage lautet nicht: „Was nimmt mir KI weg?“, sondern: „Welche Teile meines Denkens machen mich menschlich – und welche darf KI gern schneller übernehmen?“
Organisationen tun gut daran, diese Grenze aktiv zu gestalten. Rollen wie Bias Agents oder Trust-Agenten sorgen dafür, dass die Einführung und Nutzung von KI nicht im Blindflug geschieht. Sie prüfen Verzerrungen, stellen Transparenz her, sichern Fairness und schaffen einen Rahmen, in dem KI nicht menschliche Werte durch algorithmische Mittelwerte ersetzt. So bleibt der Mensch nicht nur „im Loop“, sondern im Verantwortungszentrum.
Denn der Kern geistiger Arbeit liegt nicht im Output, sondern in der Beziehung: zur Aufgabe, zu den Menschen, zu den Werten und zu den Konsequenzen. KI kann zuarbeiten, entlasten, inspirieren und Tempo geben. Aber sie kann keine Verantwortung übernehmen. Sie kann keine ethische Abwägung ersetzen. Sie kann keinen Kontext fühlen. Sie kann keine Würde schützen.
Geistige Arbeit ist deshalb kein Besitzstand, den wir gegen eine Maschine verteidigen müssen. Sie ist ein Prozess, den wir neu gestalten dürfen – nicht trotz KI, sondern wegen ihr. Wenn wir diesen Prozess bewusst führen, wird KI nicht zur Konkurrenz, sondern zum Katalysator für das, was uns wirklich menschlich macht.
Was kannst du tun?
- Autonomie sichern
Menschen behalten die Entscheidungshoheit.
→ Hypothesen vor KI-Nutzung, menschliches Sign-off, klare Verantwortlichkeit. - Autonomie sichern
Menschen behalten die Entscheidungshoheit.
→ Hypothesen vor KI-Nutzung, menschliches Sign-off, klare Verantwortlichkeit. - Identität schützen
Geistige Arbeit wird neu definiert statt entwertet.
→ Fokus auf Interpretation, Kontext, Urteilskraft – statt auf reine Produktion. - Verhalten lenken (Nudging, nicht zwingen)
KI sinnvoll nutzen durch kluge Standards.
→ „KI prüfen“-Buttons, Vergleichssichten, Default-Optionen, transparente Erklärungen. - Verzerrungen managen
Biases entstehen bei Mensch und Maschine.
→ Bias Agents, Trust-Agenten, klare Regeln für Fairness, kritische Prüfung von Outputs. - Psychologische Sicherheit schaffen
Teams brauchen Raum, um zu lernen, zu scheitern und sich weiterzuentwickeln.
→ Fehlerkultur, offene Diskussionen, kleine Pilotprojekte, Peer-Mentoring.
Quellen (Auswahl)
Kläui, T., & Siegenthaler, M. (2025). KI und der Schweizer Arbeitsmarkt: Erste Evidenz zu Auswirkungen auf Arbeitslosigkeit und Stellenausschreibungen. KOF Swiss Economic Institute, ETH Zürich.
European Parliament & Council of the European Union. (2024). Artificial Intelligence Act (EU AI Act).
Fraunhofer IKS. (2024). The European Artificial Intelligence Act: Implications, Requirements & Technical Guidance. Fraunhofer Institute for Cognitive Systems.
Eloundou, T., Manning, S., Mishkin, P., & Rock, D. (2023). GPTs are GPTs: An early look at the labor market impact potential of large language models.
Sterz, M., Goldstein, D., & Logg, J. (2024). Automation Bias in Human–AI Collaboration: Cognitive Mechanisms and Mitigation Strategies.

