Von der Angst zur Offenheit – warum Teams eine neue Kultur für KI-Nutzung brauchen
icon
password
LinkedIn-Post erstellen
type
Post
status
Published
date
Nov 20, 2025
slug
ki-nutzung-kultur
summary
KI im Büro: Deine Geheimwaffe oder ein Risiko? Warum Angst vor Bewertung die Zusammenarbeit mit KI gefährdet und wie Du eine offene Kultur schaffen kannst.
tags
Führung
Kultur
category
AI summary
### Kernthesen des Artikels
1. Angst vor negativer Bewertung: Viele Mitarbeitende zögern, KI zu nutzen, aus Angst, dass ihre Fähigkeiten in Frage gestellt werden und ihre Ergebnisse weniger wert sind.
2. Verborgene Nutzung von KI: Wenn Mitarbeitende wissen, dass ihre KI-Nutzung überwacht wird, neigen sie dazu, diese heimlich zu verwenden, was zu einem Verlust an Transparenz und Effizienz führt.
3. Problematik der Bewertungsmaßstäbe: Unternehmen müssen ihre Bewertungssysteme überdenken, die entweder die Nutzung von KI abwerten oder überbewerten, um eine gesunde Zusammenarbeit zwischen Mensch und KI zu fördern.
4. Führungskräfte als Einflussfaktoren: Führungskräfte spielen eine entscheidende Rolle dabei, wie KI wahrgenommen und genutzt wird. Sie sollten eine Kultur schaffen, die den Umgang mit KI bewertet, nicht nur die Entscheidung für oder gegen deren Nutzung.
5. Elemente einer gesunden KI-Kultur: Transparenz, klare Spielregeln und psychologische Sicherheit sind entscheidend, um das Potenzial von KI im Team voll auszuschöpfen.
6. Konkrete Maßnahmen für Führungskräfte: Führungskräfte sollten klare Haltungen zur Nutzung von KI formulieren, gemeinsame Leitlinien entwickeln und kleine Routinen zur Integration von KI in den Arbeitsalltag schaffen.
7. Fazit zur Co-Intelligence: Eine offene Gesprächskultur über KI und ein psychologisch sicheres Umfeld sind notwendig, um das volle Potenzial von KI in Organisationen zu nutzen und eine echte Co-Intelligence im Arbeitsalltag zu erreichen.
Seiten-URL
https://ai.growhuman.io/article/ki-nutzung-kultur
Bild-URL
Persistente Bild-URL
🖼️ Bilder erstellen
Source-URL
LinkedIn Post 1
Bild-Prompt
"A sketch depicting a team of diverse professionals collaborating around a table, with one person using AI technology. The scene should convey a sense of openness and innovation. The style should be a rough, minimalist pencil drawing with light gray marker shading. The background must be pure white, and only hand-drawn black lines should be present. Include subtle gray shadows or dynamic arrows to suggest depth or movement. Importantly, no text should be included in the image. Format: 21:9."
Bild-Idee
Die zentrale Aussage des Inhalts ist, dass eine offene und unterstützende Kultur für die Nutzung von KI in Unternehmen notwendig ist, um das volle Potenzial dieser Technologie auszuschöpfen und die Angst vor negativer Bewertung abzubauen.
Visualisierungsidee: Eine grob-skizzierte Darstellung eines Kreises, der eine Gruppe von Menschen symbolisiert, die durch dynamische Pfeile miteinander verbunden sind, die die Zusammenarbeit und den Austausch von Ideen darstellen; im Hintergrund schwache graue Schatten, die das Gefühl von Sicherheit und Unterstützung vermitteln, während der äußere Rand des Kreises durch gebrochene Linien angedeutet wird, um die Unsicherheiten und Ängste zu symbolisieren, die mit der Nutzung von KI verbunden sind.

Wer gibt schon gerne zu, dass er bei der Arbeit KI nutzt – und dadurch viel schneller und mindestens gefühlt auch besser ist?
Genau hier fängt das Dilemma an: Viele spüren, dass KI ihnen hilft. Gleichzeitig haben sie Angst, dass diese Hilfe gegen sie verwendet wird. Dass ihre Ergebnisse „weniger wert“ sind. Dass ihre Fähigkeiten in Frage gestellt werden.
Und sie sind damit nicht allein.
Eine aktuelle Studie zeigt sehr deutlich: In dem Moment, in dem Mitarbeitende wissen, dass ihre KI-Nutzung beobachtet oder ausgewertet wird, hören sie auf, die Ergebnisse der KI zu nutzen – obwohl ihre Leistung dadurch schlechter wird. Aus Angst vor negativer Bewertung verzichten sie bewusst auf Qualität.
Das ist absurd – und hoch relevant für jede Organisation, die ernsthaft von KI profitieren will.
Was im Kopf der Mitarbeitenden passiert
Hinter dem Verhalten steckt kein Mangel an Rationalität, sondern ein sehr menschlicher Mechanismus:
- Menschen wollen als kompetent wahrgenommen werden.
- Sie wollen zeigen: „Ich kann das selbst.“
- Sie fürchten, dass KI-Nutzung als Schwäche, Faulheit oder Abkürzung interpretiert wird.
Die Folge:
Lieber eine schwächere eigene Lösung präsentieren, als eine sichtbar KI-unterstützte, die womöglich als „nicht ehrlich verdient“ oder „nur noch halb menschliche Leistung“ gilt.
Kurz gesagt:
Viele investieren Energie in das Signal, kompetent zu sein – statt konsequent in das Ergebnis, das sie mit KI eigentlich liefern könnten.
Wenn Beobachtung Leistung killt
Die Studie bringt das auf den Punkt:
Sobald klar ist, dass Vorgesetzte oder HR sehen können, wer wie stark KI nutzt, ändert sich das Verhalten. Nicht, weil KI plötzlich schlechtere Antworten liefern würde – sondern weil die soziale Bewertung wichtiger wird als die objektive Performance.
Das heißt für den Alltag:
- Mitarbeitende nutzen KI privat, im Verborgenen, auf eigenen Geräten.
- Offiziell arbeiten sie „klassisch“, um nicht in Erklärungsnot zu kommen.
- Teams verlieren einen klaren Blick darauf, wie eigentlich gearbeitet wird.
Damit arbeiten viele im Verborgenen: Menschen, die KI nutzen, es aber nicht zeigen möchten.
Für Organisationen ist das ein Warnsignal. Denn überall dort, wo Mitarbeitende ihre Werkzeuge verstecken, ist keine gesunde Lern- und Fehlerkultur vorhanden.
Bewertungsmaßstäbe: Das unsichtbare Regelwerk
Der Kern des Problems liegt nicht im Tool, sondern im Bewertungssystem.
Explizit oder unausgesprochen wirken in vielen Unternehmen heute noch diese Maßstäbe:
- „Wirklich gute Leute brauchen keine KI.“
- „Wer KI nutzt, nimmt eine Abkürzung.“
- „KI-Ergebnisse sind weniger wert als reine ‚Handarbeit‘.“
Genauso schädlich ist allerdings das andere Extrem:
- „Ich erwarte, dass ihr auf jeden Fall KI nutzt – sonst seid ihr nicht produktiv genug.“
Beide Haltungen erzeugen Druck:
- Entweder muss ich beweisen, dass ich „ohne KI“ stark bin.
- Oder ich muss beweisen, dass ich „mit KI“ maximal effizient bin.
In beiden Fällen geht es nicht mehr um kluge Co-Intelligence, also das gute Zusammenspiel von Mensch und KI, sondern darum, den jeweils erwarteten Eindruck zu erfüllen.
Was Führung hier wirklich steuert
Führungskräfte haben an dieser Stelle mehr Einfluss, als ihnen oft bewusst ist. Sie schaffen – bewusst oder unbewusst – den Rahmen dafür, wie KI im Alltag wahrgenommen wird.
Sie können …
- eine Kultur der Abwertung von KI etablieren („Das ist doch nur ChatGPT“),
- oder eine Kultur der Überbewertung („Ohne KI habt ihr nicht effizient gearbeitet“).
Beides verhindert Lernkurven.
Sinnvoll ist etwas anderes:
Führung, die den Umgang mit KI bewertet, nicht das reine „Dafür“ oder „Dagegen“.
Fragen, die dabei helfen:
- Wie gut wurden KI-Ergebnisse geprüft und mit der eigenen Expertise abgeglichen?
- Wurden Annahmen hinterfragt, statt blind zu übernehmen?
- Wurde transparent gemacht, wo KI im Prozess geholfen hat?
- Wie wurde im Team aus den Erfahrungen gelernt?
Hier entscheidet sich, ob KI zum stillen, produktiven Partner wird – oder zum heimlichen Risiko im Hintergrund.
Wie eine gesunde KI-Kultur aussehen kann
Wenn du die Potenziale von KI in deinem Team wirklich nutzen willst, brauchst du drei Elemente: Transparenz, klare Spielregeln und psychologische Sicherheit.
1. KI-Nutzung sichtbar machen, ohne sie zu stigmatisieren
- Macht transparent, bei welchen Aufgaben KI ganz normal genutzt werden darf oder sogar soll.
- Sprecht in Retros oder Team-Meetings explizit darüber:
- „Wo hat KI dir diese Woche geholfen?“
- „Wo hat sie dich in die Irre geführt?“
- Behandelt KI-Einsatz wie jedes andere Werkzeug: Besprechbar, kritisierbar, verbesserbar.
2. Bewertungsmaßstäbe neu definieren
Statt: „War das Ergebnis KI oder du?“
besser: „Wie bist du zu diesem Ergebnis gekommen – und wie hast du es geprüft?“
Mögliche Kriterien:
- Qualität des Ergebnisses im Kontext der Aufgabe.
- Sorgfalt bei der Überprüfung von KI-Vorschlägen.
- Fähigkeit, KI differenziert und verantwortungsvoll einzusetzen.
So verschiebst du den Fokus von „Werkzeug-Moral“ hin zu professionellem, reflektiertem Arbeiten.
3. Psychologische Sicherheit schaffen
Menschen brauchen das Gefühl, sagen zu können:
- „Hier habe ich KI genutzt, weil sie mir Struktur gegeben hat.“
- „Hier lag die KI falsch, und ich musste deutlich nachsteuern.“
- „Hier habe ich mich auf die KI verlassen – und das war im Nachhinein ein Fehler.“
Ohne Angst vor Gesichtsverlust.
Das ist der Kern psychologischer Sicherheit: Fehler und Lernprozesse dürfen sichtbar sein, ohne dass sie sofort sanktioniert werden.
Konkrete Schritte für dich als Führungskraft
Wenn du das Thema aktiv gestalten willst, kannst du im Team zum Beispiel folgendes tun:
- Klare Haltung formulieren
Teile offen mit, wie du KI verstehst: als Unterstützung für Menschen, nicht als Ersatz.
Mach deutlich, dass nicht der „Hero ohne KI“ oder der „Hyper-Effiziente mit KI“ gewinnt, sondern diejenige Person, die verantwortungsvoll gute Ergebnisse erzielt.
- Gemeinsame Leitlinien erarbeiten
- Für welche Aufgaben nutzen wir KI standardmäßig?
- Wo sind rote Linien (z. B. rechtliche Texte, sensible Personalentscheidungen)?
- Wie dokumentieren wir KI-Unterstützung bei wichtigen Ergebnissen?
Entwickelt im Team einfache Regeln, zum Beispiel:
- KI-Nutzung ritualisieren
- Wöchentliche 10-Minuten-Runde: „Bestes KI-Beispiel der Woche“.
- Gemeinsame Sammlung von guten Prompts und Use Cases.
- Kurze Post-Mortems, wenn KI zu Fehlern geführt hat – mit Lernfokus, nicht Schuldzuweisung.
Baue kleine Routinen ein:
- Vorbild sein
Nutze selbst KI, sprich transparent darüber, wo sie dir geholfen hat – und wo du daneben lagst.
Damit senkst du die Hürde für alle anderen.
Ohne Sicherheit keine Co-Intelligence
Die Studie macht deutlich:
Solange Menschen Angst haben, für ihre KI-Nutzung bewertet zu werden, verschenken Organisationen einen Großteil des Potenzials von KI.
Es reicht nicht, Lizenzen bereitzustellen oder Tools auszurollen.
Entscheidend ist die Kultur, in der diese Tools genutzt werden.
Wenn du willst, dass aus heimlichen KI-Nutzer*innen sichtbare, verantwortungsbewusste Co-Worker mit KI werden, brauchst du:
- transparente Bewertungsmaßstäbe,
- eine offene Gesprächskultur über KI,
- und ein psychologisch sicheres Umfeld, in dem Lernen wichtiger ist als Fassade.
Genau dort beginnt echte Co-Intelligence im Arbeitsalltag.
Quelle: Barriers to AI Adoption: Image Concerns at Work, Job Market Paper, David Almog†, This version: November 7, 2025
Loading...
