Ist es gut? Die eine Frage, die beim KI-Einsatz jetzt zählt

type
status
date
slug
summary
tags
category
icon
password
URL
notion image
Wir nutzen KI inzwischen für fast alles: Texte schreiben, Präsentationen erstellen, Code generieren, Strategien entwickeln. Die Ergebnisse kommen in Sekunden. Sie sehen professionell aus. Sie klingen überzeugend.
Aber woher weißt du, dass sie wirklich gut sind?
Hier liegt das Problem: Die meisten von uns haben kein systematisches Vorgehen, um KI-Ergebnisse zu bewerten. Wir schauen drauf, nicken und denken: "Sieht gut aus." Dann veröffentlichen wir. Präsentieren. Setzen um.
Dabei übersehen wir drei fundamentale Veränderungen, die mit dem KI-Einsatz einhergehen:
Erstens: Du bist jetzt Führungskraft. Sobald du KI eine Aufgabe gibst, hast du delegiert. Du hast einen hochkompetenten Trainee, der aber auch blinde Flecken hat – und nicht nachfragt, wenn ihm Informationen fehlen. Die Verantwortung für das Ergebnis bleibt bei dir.
Zweitens: Du brauchst neue Meta-Skills. Prompt-Engineering reicht nicht. Du musst Bias erkennen, Faktizität prüfen, ethische Implikationen einschätzen und analytisch bewerten können. Fähigkeiten, für die es kaum Trainingsmaterial gibt.
Drittens: "Gut" ist kontextabhängig. Was für einen schnellen Prototypen reicht, kann für ein Kundenprojekt katastrophal sein. Dieselbe KI-Ausgabe kann in einem Kontext brillant, im anderen fahrlässig sein.
Die zentrale Frage ist also nicht mehr "Kann KI das?", sondern "Ist das Ergebnis gut genug für das, was ich damit vorhabe?"

Sieben Fragen, die du dir stellen musst

Ich habe eine Checkliste entwickelt, die mir hilft, KI-Ergebnisse systematisch zu prüfen. Sieben Kriterien, die den Unterschied machen zwischen "sieht gut aus" und "ist tatsächlich gut":
notion image
 
1. Ist es legal?
Verstößt es gegen Gesetze? DSGVO, Urheberrecht, Datenschutz? Die KI kennt deine rechtlichen Rahmenbedingungen nicht.
2. Ist es ethisch?
Diskriminiert es? Benachteiligt es Minderheiten? Passt es zu den Werten deines Unternehmens?
3. Ist es korrekt?
Formal und faktisch. KI halluziniert. Ständig. Selbst Google und millionenschwere Startups fallen darauf rein.
4. Ist es harmlos?
Könnte es jemandem schaden? Usern, Betroffenen, der Umwelt?
5. Ist es nützlich?
Welchen Wert hat es wirklich – für User und fürs Business?
6. Ist es nutzbar?
Versteht es die Zielgruppe? Ist es intuitiv, klar strukturiert, zugänglich?
7. Ist es ambitioniert?
Erfüllt es deine Ansprüche oder ist es generischer 08/15-Output?

Das Problem mit "gut genug"

Hier wird's interessant: Es gibt kein absolutes "gut".
Es gibt nur "gut genug" – und das hängt vom Kontext ab.
Wenn du einen schnellen Prototypen brauchst, kann ein Interface mit Macken völlig okay sein. Wenn Millionen User damit arbeiten sollen? Katastrophe.
Die Frage ist also nicht nur "Ist es gut?", sondern "Ist es gut genug für das, was ich damit vorhabe?"

Du bleibst der Manager – auch wenn KI für dich prüft

Vielleicht denkst du jetzt: "Kann ich nicht einfach eine zweite KI die Prüfung machen lassen?"
Kannst du.
Aber das ändert nichts.
Denn dann bist du nicht mehr Manager, sondern Manager des Managers. Eine Ebene höher. Die Verantwortung bleibt bei dir.
Wie bei Matroschka-Puppen: Du öffnest eine, die nächste kommt raus, und du musst wieder von vorne prüfen.

Was du jetzt tun kannst

Ich habe aus dieser Checkliste ein Praxis-Tool gemacht, das du direkt einsetzen kannst.
Mit konkreten Beispielen. Mit einem ausführlichen Durchgang anhand eines echten UX-Design-Falls. Mit allen Details zu den sieben Kriterien und wie du sie in deinem Kontext anwendest.
Dort findest du auch ein Video zum Thema, ein druckbares PDF und Infos zu einem Team-Workshop, in dem ihr gemeinsam klare Guidelines für den KI-Einsatz entwickelt.
Denn eines ist klar: KI wird nicht verschwinden. Im Gegenteil.
Aber ob sie uns wirklich hilft oder nur schöne Illusionen produziert – das entscheiden wir. Mit jedem Briefing, das wir schreiben. Mit jeder Prüfung, die wir machen.
Mit jeder Frage: Ist es gut?
Loading...

© Niels Anhalt 2025