Wie individuell sind wir wirklich?

Picture of Prof. Dr. Stephan Buchhester
Prof. Dr. Stephan Buchhester
Co-Founder

Der Mensch als Trainingsdatenpunkt – und warum das zur größten Ethikfrage der Arbeitswelt wird. Was passiert, wenn unsere Persönlichkeit zur Vorlage für KI wird – und unser Können plötzlich ohne uns funktioniert? 

Es fängt meist ganz klein an, zum Beispiel mit einer Mail.

Es war einmal eine Teamassistenz. Eine, die auf Mails nicht nur antwortete, sondern reagierte. Sie las zwischen den Zeilen, erkannte Spannungen, bevor sie sichtbar wurden, und konnte mit wenigen Worten Nähe schaffen, wo vorher Distanz war.

Irgendwann wurde aus ihren Mails ein sogenannter Custom Bot trainiert – eine KI, die ihren Stil imitierte, ihre Formulierungen, sogar ihren Tonfall. Zunächst war das faszinierend. Endlich Entlastung.

Doch nach und nach bemerkte sie, dass ihre Antworten schon da waren, bevor sie selbst sprach. Ihre Handschrift lebte fort – nur nicht mehr in ihrer Hand.

Was zunächst wie eine Erleichterung aussah, wurde zur schleichenden Entwertung. Sie spürte, dass sie in Meetings weniger gefragt war, dass ihr Beitrag leiser wurde, dass ihre Wirksamkeit zu einem Datensatz geworden war.

Dieses Gefühl, aus dem eigenen Können herausgelöst zu werden, ist kein individuelles Drama – sondern ein organisationales Ethikproblem.

Zwischen Automatisierung und Entfremdung

Der Kern der Geschichte ist kein Angriff auf Technologie, sondern eine Frage an uns selbst:

Wann wird Entlastung zu Entfremdung?

Künstliche Intelligenz soll den Menschen unterstützen – doch in der Realität erleben viele Mitarbeitende etwas anderes: Laut einer Studie des World Economic Forum (2024) fürchten 51 % der Beschäftigten, dass Automatisierung ihre Rolle langfristig überflüssig macht. Gleichzeitig sehen 74 % Potenzial für Entlastung und Weiterbildung. Das Spannungsfeld ist offensichtlich: zwischen Effizienz und Identität, zwischen Algorithmus und Autonomie.

Der EU AI Act – Ethik wird Pflicht

Der EU AI Act, der am 1. August 2024 in Kraft trat (EU-Kommission, 2024), ist der erste umfassende Rechtsrahmen für KI-Systeme weltweit.
Sein Kernprinzip: KI darf die Entscheidungsautonomie von Menschen nicht beeinträchtigen.

Organisationen sind verpflichtet, sicherzustellen, dass:

  • menschliche Entscheidungen nachvollziehbar bleiben,
  • Transparenz über maschinelle Prozesse besteht,
  • und jederzeit menschliches Eingreifen möglich ist.

Das Ziel ist klar: Menschen dürfen nicht zu Trainingsdatenpunkten ihrer eigenen Ersetzung werden.

Doch Regulierung allein reicht nicht. Ethik muss in der Organisation messbar, sichtbar und gestaltbar werden.

Entscheidung und Autonomie – was KI nicht ersetzen kann

Entscheidungen sind mehr als rationale Prozesse. Sie entstehen aus Erfahrung, Intuition, sozialem Vergleich und Zukunftsantizipation. Sie sind Teil unserer Identität.

Autonomie hingegen beschreibt das Erleben von Selbstbestimmung, Einfluss und Wirksamkeit. Wenn KI diese Räume besetzt – etwa durch Vorschläge, die wir ungeprüft übernehmen – verlieren Menschen nicht nur Kontrolle, sondern Bedeutung.

Diese Dynamik ist empirisch belegt:

Eine Meta-Analyse von Gagné & Deci (2019) zeigt, dass autonom motivierte Mitarbeitende bis zu 30 % höhere Leistung und 40 % höhere Zufriedenheit aufweisen. (Self-Determination Theory Research Center, 2020) Was aber, wenn KI genau diese Autonomie schleichend untergräbt?

Warum Ethik messbar werden muss

„Nur was messbar ist, kann beobachtet, verbessert und verantwortet werden.“
Ethik darf keine moralische Geste bleiben, sie braucht Strukturen – und Indikatoren, die zeigen, wann Entlastung kippt in Entfremdung.

Mögliche Indikatoren:

  • Anteil ungeprüft übernommener KI-Vorschläge
  • Transparenz über maschinelle vs. menschliche Arbeit
  • Rückgang eigener Entwicklungsideen
  • Veränderung im Beteiligungsverhalten in Meetings
  • Wahrgenommenes Maß an Selbstbestimmung und Wirksamkeit

So entsteht ein Frühwarnsystem für ethische Erosion – ein Instrument, das hilft, menschliche Werte zu bewahren, während Technologie wächst.

Psychologische Grundlage: Die Selbstbestimmungstheorie

Ein belastbares Messsystem sollte auf psychologischen Modellen fußen.
Die Selbstbestimmungstheorie von Deci und Ryan (1985) identifiziert drei Grundbedürfnisse, die Voraussetzung für Motivation und psychische Gesundheit sind:

  1. Autonomie – das Gefühl, eigene Entscheidungen treffen zu können
  2. Kompetenz – das Gefühl, etwas zu bewirken
  3. Zugehörigkeit – das Gefühl, verbunden zu sein

Wird eines dieser Bedürfnisse durch KI-Anwendungen geschwächt, drohen Demotivation, Entfremdung und Vertrauensverlust. Wird es gestärkt, kann KI zu einem echten Partner menschlicher Entwicklung werden.

Ethik braucht Struktur – und Vetorecht

Damit Ethik nicht zur Folklore verkommt, muss sie in Strukturen verankert werden.
Ein Vorschlag: eine Stabsstelle Ethik & Technologie mit Vetorecht direkt unter dem Vorstand.

Diese Stelle sollte regelmäßig Kennzahlen überwachen:

  • Anteil menschlicher vs. automatisierter Entscheidungen
  • Zeit für Führung und Dialog
  • Zahl von Schulungen im Umgang mit KI und Veränderungsangst
  • Häufigkeit psychologischer Ersthilfe
  • Buchungen zu Themen wie Selbstwirksamkeit oder Ethikkompetenz


Solche Kennzahlen bilden den ethischen Reifegrad einer Organisation ab.

Sichtbarkeit schafft Haltung

Zahlen sind wichtig – aber sie brauchen Kultur.

Ethik muss sichtbar werden: auf Postern, im Intranet, in der Kantine, als Avatar oder Symbol.

Wenn in jedem Teammeeting fünf Minuten für die Frage reserviert sind, „Wann war KI hilfreich – und wann irritierend?“, dann wird Ethik zur Haltung, nicht zur Vorschrift.
So entsteht eine neue Form von Organisationsresonanz: Menschlichkeit als Betriebssystem.

Fazit: Menschlichkeit als Infrastruktur der KI

Künstliche Intelligenz ist Software – aber Menschlichkeit ist das Betriebssystem, auf dem sie läuft. Solange dieses Betriebssystem aus echten Menschen besteht, muss Ethik messbar, sichtbar und verhandelbar bleiben.

Denn Wirksamkeit, Sinn und Verantwortung sind keine Codezeilen.
 Sie sind das, was uns ausmacht – und was kein Algorithmus der Welt ersetzen sollte.

Quellen (Auswahl)

  • Europäisches Parlament: EU AI Act 2024
  • World Economic Forum (2024): The Future of Jobs Report
  • Ryan, R. M., Deci, E. L., Vansteenkiste, M., & Soenens, B. (2021). Building a science of motivated persons: Self-determination theory’s empirical approach to human experience and the regulation of behavior. Motivation Science, 7(2), 97–110
  • Gagné, M., & Deci, E.L. (2019): Self-determination theory and work motivation
  • OECD (2024): AI, Productivity and Human Capital

Weitere Beiträge

Angebot

Unternehmen