Von der Angst zur Offenheit – warum Teams eine neue Kultur für KI-Nutzung brauchen
icon
password
LinkedIn-Post erstellen
LinkedIn Post
type
status
date
slug
summary
tags
category
AI summary
Seiten-URL
Bild-URL
Persistente Bild-URL
🖼️ Bilder erstellen
Source-URL
Bild-Prompt
Bild-Idee

Wer gibt schon gerne zu, dass er bei der Arbeit KI nutzt – und dadurch viel schneller und mindestens gefühlt auch besser ist?
Genau hier fängt das Dilemma an: Viele spüren, dass KI ihnen hilft. Gleichzeitig haben sie Angst, dass diese Hilfe gegen sie verwendet wird. Dass ihre Ergebnisse „weniger wert“ sind. Dass ihre Fähigkeiten in Frage gestellt werden.
Und sie sind damit nicht allein.
Eine aktuelle Studie zeigt sehr deutlich: In dem Moment, in dem Mitarbeitende wissen, dass ihre KI-Nutzung beobachtet oder ausgewertet wird, hören sie auf, die Ergebnisse der KI zu nutzen – obwohl ihre Leistung dadurch schlechter wird. Aus Angst vor negativer Bewertung verzichten sie bewusst auf Qualität.
Das ist absurd – und hoch relevant für jede Organisation, die ernsthaft von KI profitieren will.
Was im Kopf der Mitarbeitenden passiert
Hinter dem Verhalten steckt kein Mangel an Rationalität, sondern ein sehr menschlicher Mechanismus:
- Menschen wollen als kompetent wahrgenommen werden.
- Sie wollen zeigen: „Ich kann das selbst.“
- Sie fürchten, dass KI-Nutzung als Schwäche, Faulheit oder Abkürzung interpretiert wird.
Die Folge:
Lieber eine schwächere eigene Lösung präsentieren, als eine sichtbar KI-unterstützte, die womöglich als „nicht ehrlich verdient“ oder „nur noch halb menschliche Leistung“ gilt.
Kurz gesagt:
Viele investieren Energie in das Signal, kompetent zu sein – statt konsequent in das Ergebnis, das sie mit KI eigentlich liefern könnten.
Wenn Beobachtung Leistung killt
Die Studie bringt das auf den Punkt:
Sobald klar ist, dass Vorgesetzte oder HR sehen können, wer wie stark KI nutzt, ändert sich das Verhalten. Nicht, weil KI plötzlich schlechtere Antworten liefern würde – sondern weil die soziale Bewertung wichtiger wird als die objektive Performance.
Das heißt für den Alltag:
- Mitarbeitende nutzen KI privat, im Verborgenen, auf eigenen Geräten.
- Offiziell arbeiten sie „klassisch“, um nicht in Erklärungsnot zu kommen.
- Teams verlieren einen klaren Blick darauf, wie eigentlich gearbeitet wird.
Damit arbeiten viele im Verborgenen: Menschen, die KI nutzen, es aber nicht zeigen möchten.
Für Organisationen ist das ein Warnsignal. Denn überall dort, wo Mitarbeitende ihre Werkzeuge verstecken, ist keine gesunde Lern- und Fehlerkultur vorhanden.
Bewertungsmaßstäbe: Das unsichtbare Regelwerk
Der Kern des Problems liegt nicht im Tool, sondern im Bewertungssystem.
Explizit oder unausgesprochen wirken in vielen Unternehmen heute noch diese Maßstäbe:
- „Wirklich gute Leute brauchen keine KI.“
- „Wer KI nutzt, nimmt eine Abkürzung.“
- „KI-Ergebnisse sind weniger wert als reine ‚Handarbeit‘.“
Genauso schädlich ist allerdings das andere Extrem:
- „Ich erwarte, dass ihr auf jeden Fall KI nutzt – sonst seid ihr nicht produktiv genug.“
Beide Haltungen erzeugen Druck:
- Entweder muss ich beweisen, dass ich „ohne KI“ stark bin.
- Oder ich muss beweisen, dass ich „mit KI“ maximal effizient bin.
In beiden Fällen geht es nicht mehr um kluge Co-Intelligence, also das gute Zusammenspiel von Mensch und KI, sondern darum, den jeweils erwarteten Eindruck zu erfüllen.
Was Führung hier wirklich steuert
Führungskräfte haben an dieser Stelle mehr Einfluss, als ihnen oft bewusst ist. Sie schaffen – bewusst oder unbewusst – den Rahmen dafür, wie KI im Alltag wahrgenommen wird.
Sie können …
- eine Kultur der Abwertung von KI etablieren („Das ist doch nur ChatGPT“),
- oder eine Kultur der Überbewertung („Ohne KI habt ihr nicht effizient gearbeitet“).
Beides verhindert Lernkurven.
Sinnvoll ist etwas anderes:
Führung, die den Umgang mit KI bewertet, nicht das reine „Dafür“ oder „Dagegen“.
Fragen, die dabei helfen:
- Wie gut wurden KI-Ergebnisse geprüft und mit der eigenen Expertise abgeglichen?
- Wurden Annahmen hinterfragt, statt blind zu übernehmen?
- Wurde transparent gemacht, wo KI im Prozess geholfen hat?
- Wie wurde im Team aus den Erfahrungen gelernt?
Hier entscheidet sich, ob KI zum stillen, produktiven Partner wird – oder zum heimlichen Risiko im Hintergrund.
Wie eine gesunde KI-Kultur aussehen kann
Wenn du die Potenziale von KI in deinem Team wirklich nutzen willst, brauchst du drei Elemente: Transparenz, klare Spielregeln und psychologische Sicherheit.
1. KI-Nutzung sichtbar machen, ohne sie zu stigmatisieren
- Macht transparent, bei welchen Aufgaben KI ganz normal genutzt werden darf oder sogar soll.
- Sprecht in Retros oder Team-Meetings explizit darüber:
- „Wo hat KI dir diese Woche geholfen?“
- „Wo hat sie dich in die Irre geführt?“
- Behandelt KI-Einsatz wie jedes andere Werkzeug: Besprechbar, kritisierbar, verbesserbar.
2. Bewertungsmaßstäbe neu definieren
Statt: „War das Ergebnis KI oder du?“
besser: „Wie bist du zu diesem Ergebnis gekommen – und wie hast du es geprüft?“
Mögliche Kriterien:
- Qualität des Ergebnisses im Kontext der Aufgabe.
- Sorgfalt bei der Überprüfung von KI-Vorschlägen.
- Fähigkeit, KI differenziert und verantwortungsvoll einzusetzen.
So verschiebst du den Fokus von „Werkzeug-Moral“ hin zu professionellem, reflektiertem Arbeiten.
3. Psychologische Sicherheit schaffen
Menschen brauchen das Gefühl, sagen zu können:
- „Hier habe ich KI genutzt, weil sie mir Struktur gegeben hat.“
- „Hier lag die KI falsch, und ich musste deutlich nachsteuern.“
- „Hier habe ich mich auf die KI verlassen – und das war im Nachhinein ein Fehler.“
Ohne Angst vor Gesichtsverlust.
Das ist der Kern psychologischer Sicherheit: Fehler und Lernprozesse dürfen sichtbar sein, ohne dass sie sofort sanktioniert werden.
Konkrete Schritte für dich als Führungskraft
Wenn du das Thema aktiv gestalten willst, kannst du im Team zum Beispiel folgendes tun:
- Klare Haltung formulieren
Teile offen mit, wie du KI verstehst: als Unterstützung für Menschen, nicht als Ersatz.
Mach deutlich, dass nicht der „Hero ohne KI“ oder der „Hyper-Effiziente mit KI“ gewinnt, sondern diejenige Person, die verantwortungsvoll gute Ergebnisse erzielt.
- Gemeinsame Leitlinien erarbeiten
- Für welche Aufgaben nutzen wir KI standardmäßig?
- Wo sind rote Linien (z. B. rechtliche Texte, sensible Personalentscheidungen)?
- Wie dokumentieren wir KI-Unterstützung bei wichtigen Ergebnissen?
Entwickelt im Team einfache Regeln, zum Beispiel:
- KI-Nutzung ritualisieren
- Wöchentliche 10-Minuten-Runde: „Bestes KI-Beispiel der Woche“.
- Gemeinsame Sammlung von guten Prompts und Use Cases.
- Kurze Post-Mortems, wenn KI zu Fehlern geführt hat – mit Lernfokus, nicht Schuldzuweisung.
Baue kleine Routinen ein:
- Vorbild sein
Nutze selbst KI, sprich transparent darüber, wo sie dir geholfen hat – und wo du daneben lagst.
Damit senkst du die Hürde für alle anderen.
Ohne Sicherheit keine Co-Intelligence
Die Studie macht deutlich:
Solange Menschen Angst haben, für ihre KI-Nutzung bewertet zu werden, verschenken Organisationen einen Großteil des Potenzials von KI.
Es reicht nicht, Lizenzen bereitzustellen oder Tools auszurollen.
Entscheidend ist die Kultur, in der diese Tools genutzt werden.
Wenn du willst, dass aus heimlichen KI-Nutzer*innen sichtbare, verantwortungsbewusste Co-Worker mit KI werden, brauchst du:
- transparente Bewertungsmaßstäbe,
- eine offene Gesprächskultur über KI,
- und ein psychologisch sicheres Umfeld, in dem Lernen wichtiger ist als Fassade.
Genau dort beginnt echte Co-Intelligence im Arbeitsalltag.
Quelle: Barriers to AI Adoption: Image Concerns at Work, Job Market Paper, David Almog†, This version: November 7, 2025
Loading...
