Lazy loaded imageDie Doorman Fallacy: Was wir verlieren, wenn wir nur sehen, was messbar ist

icon
password
LinkedIn-Post erstellen
LinkedIn Post
type
Post
status
Published
date
Mar 19, 2026
slug
doorman-fallacy
summary
Rory Sutherlands Doorman Fallacy beschreibt den Denkfehler, Rollen auf ihre messbare Funktion zu reduzieren – und hat direkte, weitreichende Implikationen für die KI-Einführung in Organisationen.
tags
Transformation
Führung
Agent
Kultur
category
human-ai
AI summary
Seiten-URL
https://ai.growhuman.io/article/doorman-fallacy
Bild-URL
Persistente Bild-URL
🖼️ Bilder erstellen
Source-URL
LinkedIn Post 1
Bild-Prompt
Bild-Idee
notion image

Ein Berater, eine Tür – und ein teurer Irrtum

Stellen wir uns eine Szene vor: Ein Unternehmensberater betritt die Lobby eines Fünf-Sterne-Hotels. Er beobachtet den Eingang. Ein Doorman in Uniform begrüßt Gäste, öffnet die Tür, nickt freundlich. Der Berater notiert etwas. Wenige Wochen später liegt ein Bericht vor. Kernempfehlung: Den Doorman durch eine automatische Schiebetür ersetzen. Kosteneinsparung: rund 40.000 Euro jährlich. Begründung: Die Funktion des Doorman ist das Öffnen der Tür. Dies kann ein automatisches System effizienter leisten.
Zwei Jahre später ist das Hotel nicht mehr das, was es war.
Dieses Beispiel stammt von Rory Sutherland, Verhaltensökonom und Vice Chairman von Ogilvy UK. In seinem Buch Alchemy nennt er es die Doorman Fallacy – den Denkfehler, eine Rolle auf ihre sichtbarste, messbare Funktion zu reduzieren, während der eigentliche Wert unsichtbar bleibt.
"The problem arises because opening the door is only the notional role of a doorman; his other, less definable sources of value lie in a multiplicity of other functions: taxi-hailing, security, vagrant deterrence, customer recognition, as well as in signalling the status of the hotel." — Rory Sutherland, Alchemy

Was der Doorman wirklich tut

Der Doorman öffnet keine Tür. Er pflegt Beziehungen. Er hält Taxis an. Er erkennt den Stammgast, der seit zehn Jahren jedes Jahr im selben Hotel seinen Jahrestag feiert. Er sorgt dafür, dass sich keine fremden Personen im Eingangsbereich aufhalten. Und er signalisiert durch seine bloße Anwesenheit: Dieses Haus ist besonders.
All das ist schwer zu messen. Kein Dashboard zeigt den Wert eines wiedererkannten Lächelns. Keine Tabellenkalkulation erfasst den Statusgewinn, den Gäste empfinden, wenn sie mit Namen begrüßt werden. Und genau deshalb fällt es so leicht, diesen Wert zu übersehen.
Der Blogger und Investor Sahil Bloom bringt die Kernstruktur des Denkfehlers auf den Punkt: Die Fallacy besteht darin, den Surface Value – das Offensichtliche, Sichtbare, Zählbare – mit dem Real Value zu verwechseln. Die Oberfläche ist die Tür. Der echte Wert ist das Erlebnis dahinter.

Ein Denkfehler mit System

Die Doorman Fallacy ist kein Einzelfall. Sie ist ein Muster – tief verwurzelt in der Art, wie Organisationen Entscheidungen treffen.
Hinter ihr stecken mehrere gut beschriebene kognitive Verzerrungen: der Quantifizierungsbias, der dazu bringt, dem Messbaren mehr Gewicht zu geben als dem Bedeutsamen; Short-Term Thinking, das kurzfristige Kosteneinsparungen über langfristigen Wertverlust stellt; und eine systemische Tendenz zur Oversimplification – komplexe Rollen werden auf ihre markanteste, leicht beschreibbare Aufgabe reduziert.
Was nicht in einem Bericht auftaucht, scheint nicht zu existieren. Was nicht in einer Zahl erfasst wird, scheint keinen Wert zu haben. Was nicht automatisierbar ist, wird als Ineffizienz missverstanden.

Warum diese Fallacy im KI-Zeitalter besonders folgenreich ist

Was Sutherland für Hotels beschreibt, lässt sich heute auf nahezu jeden Bereich der Arbeitswelt übertragen – und nirgendwo wird der Denkfehler folgenreicher als in der aktuellen Diskussion über KI-Einführung.
Organisationen, die KI-Agentensysteme einführen, stehen vor der Frage: Welche Aufgaben sollen delegiert werden? Die naheliegende Antwort lautet: die repetitiven, die messbaren, die klar definierten. Eine Anfrage beantworten. Ein Dokument zusammenfassen. Eine Buchung bestätigen.
Aber genau hier liegt die Gefahr. Denn Rollen in Organisationen sind selten das, was auf der Visitenkarte steht. Ein Kundenservice-Mitarbeitender beantwortet nicht nur Fragen – er spürt, wenn jemand frustriert ist und eigentlich Verständnis braucht, nicht Information. Personalverantwortliche führen nicht nur Vorstellungsgespräche – sie lesen das unausgesprochene Unbehagen, das kein Algorithmus erfassen kann. Ein Teamlead schreibt nicht nur Status-Updates – er hält den sozialen Zusammenhalt einer Gruppe aufrecht, die unter Druck steht.
Wenn diese Rollen als "Fragen beantworten", "Interviews führen" oder "Kommunizieren" definiert werden, erscheinen sie automatisierbar. Und tatsächlich kann KI diese Oberfläche übernehmen. Was sie nicht übernehmen kann – zumindest nicht vollständig – ist der unsichtbare Rest.
"Organisations are falling for what is known as the doorman fallacy: reducing rich and complex human roles to a single task and replacing people with AI. This overlooks the nuanced interactions and adaptability humans bring to their work." — The Conversation, 2024

Die entscheidende Frage vor jeder Automatisierung

notion image
Das Konzept der Doorman Fallacy liefert deshalb eine der wichtigsten Leitfragen für alle, die KI-Agentensysteme strategisch einführen wollen: Was macht diese Person wirklich – sichtbar und unsichtbar?
Kieran Cornwall, Strategieberater mit Fokus auf KI-Transformation, formuliert es präzise:
"Before you automate, map the meaning. That's where the differentiation lives."
Diese Aussage ist keine Mahnung gegen Automatisierung – sie ist eine Einladung zur Tiefe. Denn wer die versteckten Wertdimensionen einer Rolle kennt, kann differenzierter entscheiden: Was kann und soll ein KI-Agentensystem übernehmen? Was sollte bewusst beim Menschen bleiben? Und wie können beide zusammenwirken, ohne dass das Wesentliche verloren geht?

Vom Werkzeug zum operativen Partner

An dieser Stelle berührt die Doorman Fallacy einen zentralen Gedanken in der Debatte über Human-AI-Collaboration: KI nicht als Werkzeug zu denken, das Aufgaben abnimmt, sondern als operativen Partner auf Teilzielebene – einen, der Entwürfe liefert, analysiert und strukturiert, während Menschen Ziele setzen, Prioritäten definieren und die Qualität des Ergebnisses beurteilen.
Dieses Modell funktioniert allerdings nur dann, wenn klar ist, welche Teile einer Aufgabe rein operational sind – und welche Urteilsvermögen, Beziehung oder implizites Kontextwissen erfordern, das sich nicht formalisieren lässt. Der Doorman ist das Sinnbild für den zweiten Teil.
Mike Amundsen, Software-Architekt und KI-Forscher, fasst die tiefere Einsicht zusammen:
"The deeper lesson of the doorman fallacy is that intelligence is not a property of isolated systems but of relationships. The doorman's value emerges in the interplay between person and place, gesture and response. The same is true for AI. Detached from human context, it becomes thin and mechanical. Driven by human purpose, it becomes powerful and humane." — Mike Amundsen, O'Reilly Radar, 2026

Das Unsichtbare sichtbar machen

Die Doorman Fallacy ist letztlich ein Aufruf zur Präzision – nicht zur Skepsis gegenüber Effizienz, sondern zur Erweiterung des Blickwinkels, mit dem Rollen und Wert bewertet werden.
Organisationen, die KI-Agentensysteme sinnvoll einführen wollen, kommen nicht umhin, diese Fragen ernsthaft zu stellen: Was ist die notional role – die Nominaldefinition einer Stelle? Und was ist der tatsächliche, oft unsichtbare Wertbeitrag, der in dieser Rolle steckt?
Der Unterschied zwischen beiden ist oft genau das, was Menschen wirklich schätzen. Und was fehlt, wenn es weg ist.

Quellen

  • Rory Sutherland: Alchemy. WH Allen, 2019.
Loading...