Es ist faszinierend, wie schnell Generative AI in Führungsetagen zur Selbstverständlichkeit geworden ist. Kaum eine strategische Diskussion, in der nicht ein KI-Tool die Stimmung aufhellt: „Wir haben dazu schon mal ein Modell rechnen lassen.“ Oder: „ChatGPT sagt, der Trend geht klar nach oben.“ Die Ironie ist nur, dass genau dieser technologische Fortschritt uns zu schlechteren Entscheidungen verleiten kann.
Glauben wir Maschinen zu viel?
Eine aktuelle Studie von Forschern des MIT, der University of Toronto und der Wharton School, veröffentlicht im Harvard Business Review, hat diesen Effekt messbar gemacht. Über 600 Managerinnen und Manager mit Finanzverantwortung wurden in einem Experiment gebeten, die Kursentwicklung von Nvidia vorherzusagen. Alle erhielten identische historische Preisdaten. Doch nur ein Teil der Teilnehmenden bekam zusätzlich eine Prognose aus einem großen Sprachmodell – samt einer kurzen, selbstbewusst formulierten Begründung.
Das Ergebnis war so klar wie ernüchternd. Die Manager, die ohne KI arbeiteten, lagen mit ihren Prognosen näher an der Realität. Diejenigen, die den KI-Vorschlag sahen, schätzten nicht nur falscher, sondern waren auch noch überzeugter, dass sie richtigliegen. Der Kommentar aus der Studie bringt es auf den Punkt: „When the AI provided not just a forecast but a rationale for its prediction, executives reported higher confidence in the output — even though the accuracy of their own predictions suffered.“
Neutrale Wahrheit bleibt eine Illusion
Was hier sichtbar wird, ist der sogenannte KI-Autoritätsbias. Menschen neigen dazu, Vorschlägen mehr Gewicht zu geben, wenn sie von einer Maschine stammen, die mit dem Nimbus datenbasierter Objektivität auftritt.
Die Verlockung ist groß, die eigene Unsicherheit an eine künstliche Intelligenz zu delegieren. Schließlich klingt das Ergebnis präzise, durchdacht, mathematisch legitimiert. Das Problem: Es ist oft nicht besser – nur plausibler verpackt.
Blinder Gehorsam wird teuer
Dieser Mechanismus ist nicht nur eine intellektuelle Fußnote, sondern eine ernste Herausforderung für Führungskräfte. Denn je mehr Organisationen generative KI in Entscheidungsprozesse integrieren, desto größer wird das Risiko, dass kollektives Urteilsvermögen erodiert. Besonders gefährlich ist die Mischung aus scheinbarer Kompetenz und der tiefen psychologischen Entlastung, die ein vermeintlich neutrales System erzeugt.
Wie behalten wir die Kontrolle?
Was also tun? Für Unternehmen ist es entscheidend, diesen Bias nicht einfach hinzunehmen, sondern ihn systematisch zu adressieren. Das bedeutet, dass KI-Output als Hypothese behandelt wird, nicht als Fakt. Es braucht ein Umfeld, in dem Menschen die Autorität der Maschine infrage stellen dürfen, ohne als Querulanten zu gelten. Wenn jede KI-Empfehlung sofort als „beste verfügbare Option“ gehandelt wird, hat man das Spiel bereits verloren.
Gleichzeitig sollten Organisationen Mechanismen etablieren, die Widerspruch nicht nur zulassen, sondern aktiv einfordern. Ob in Form von Red-Teams, die gegenteilige Einschätzungen entwickeln, oder durch systematische Vergleichsrechnungen mit menschlichen Urteilen – wichtig ist, dass KI nicht zum Monopolisten der Wahrheit wird.
Denn bei aller Begeisterung: Generative AI ist kein Orakel. Sie liefert Muster, Wahrscheinlichkeiten und sprachliche Überzeugungskraft. Aber sie kennt weder die Zukunft noch den Kontext jeder Entscheidung. Genau deshalb sollte der KI-Autoritätsbias ein fester Bestandteil jeder Transformationsagenda sein.
Die große Chance liegt darin, Technologie und menschliche Urteilskraft klug zu kombinieren. Organisationen, die ihre Führungsteams für diesen Bias sensibilisieren und kritisches Denken aktiv fördern, werden am Ende bessere Entscheidungen treffen. Nicht, weil sie auf KI verzichten, sondern weil sie gelernt haben, ihr genau die Rolle zu geben, die sie verdient: die einer leistungsfähigen, aber fehlbaren Beraterin.
Quellen
Harvard Business Review (2025), Executives who used Gen AI made worse predictions, https://hbr.org/2025/07/research-executives-who-used-gen-ai-made-worse-predictions?tpcc=orgsocial_edit&utm_campaign=hbr&utm_medium=social&utm_source=twitter