Die neue Innovationslogik – und warum die meisten gerade falsch optimieren

Die neue Innovationslogik – und warum die meisten gerade falsch optimieren

Viele Organisationen feiern KI, weil sie Innovation beschleunigt. Prototypen in Stunden. Ideen im Überfluss. Simulationen statt Nutzerinterviews. Künstliche Intelligenz beschleunigt Innovation – so die gängige Erzählung. Und trotzdem fühlt sich etwas falsch an. Denn was wir derzeit erleben, ist kein Effizienzsprung, sondern ein Strukturbruch: damit verändert KI nicht nur die Geschwindigkeit, sondern vor allem die Logik, nach der Innovation entsteht.

 

KI wirkt nicht inkrementell, sondern disruptiv

Lasst uns ehrlich sein: Die meisten Innovationsprozesse wurden für eine Welt gebaut, in der Ideen knapp, Daten teuer und Experimente langsam waren.
Diese Welt existiert nicht mehr. Künstliche Intelligenz ist keine weitere Methode im Werkzeugkasten. Sie ist eine General Purpose Technology. Wie Elektrizität. Wie der Computer. Technologien dieser Art verbessern nicht bestehende Prozesse – sie zerstören die Annahmen, auf denen diese Prozesse beruhen.
Joseph Schumpeter nannte das schöpferische Zerstörung: Innovation wirkt nicht inkrementell, sondern diskontinuierlich. Sie schafft Gewinner, Verlierer und massive Reallokation von Ressourcen (Schumpeter, 1942).

KI beschleunigt diesen Effekt, weil sie gleichzeitig Wissensarbeit, Entscheidungsfindung und Kreativität angreift. Nicht nacheinander. Parallel. Global. 24/7.
Wenn ihr KI nutzt, um bestehende Innovationsprozesse schneller zu machen, dann optimiert ihr ein System, das strukturell bereits veraltet ist.

 

Das Produktivitätsparadoxon ist ein Warnsignal

Die meisten Innovationsprogramme behandeln KI wie ein neues Werkzeug. Genau das ist der Denkfehler. KI ist keine weitere Produktivtechnologie, sondern eine General Purpose Technology – vergleichbar mit Elektrizität oder dem Computer. Joseph Schumpeter beschrieb diesen Effekt bereits 1942 als schöpferische Zerstörung: Innovation erzeugt keinen linearen Fortschritt, sondern diskontinuierlichen Strukturwandel. Neues verdrängt Altes, Kompetenzen werden entwertet, Organisationen verlieren ihre angestammte Logik.

Die Empirische Innovationsforschung bestätigt diese Dynamik. Brynjolfsson, Rock und Syverson zeigen, dass solche Technologien zunächst Produktivität senken, bevor sie Wachstum freisetzen – die sogenannte Produktivitäts-J-Kurve. Der Grund: Organisationen passen ihre Prozesse, Entscheidungsmodelle und Rollen langsamer an als die Technologie selbst. KI verstärkt diesen Effekt, weil sie gleichzeitig Wissensarbeit, Entscheidungsfindung und Kreativarbeit adressiert (Brynjolfsson et al., 2021).

Die Konsequenz: Wer KI nur als Beschleuniger bestehender Innovationsprozesse einsetzt, erhöht kurzfristig den Output – und langfristig die Reibung.

„Warum sehen wir KI überall, aber nicht in der Produktivitätsstatistik?“ Diese Frage ist alt. Und gefährlich falsch gestellt. Bei radikalen Technologien fällt die Produktivität zunächst, bevor sie steigt. Organisationen müssen erst neue Kompetenzen, Entscheidungslogiken und Koordinationsmechanismen aufbauen. Das nennt sich Produktivitäts-J-Kurve (Brynjolfsson et al., 2021).

KI ist kein Effizienztool. Sie erzeugt zunächst:

  • Reibung
  • Kompetenzverluste
  • Entscheidungsüberforderung
  • Wer das ignoriert, verwechselt Tempo mit Wirkung.

 

Innovation verlagert sich vom erfahrungsbasiertem Lernen zu simulationsbasierter Antizipation

Die klassische Innovationslogik ist lernbasiert. Beobachten, Hypothesen bilden, testen, iterieren. Design Thinking ist der prominenteste Ausdruck dieser Denkweise. Ihre implizite Annahme: Daten, Zeit und Ideen sind knapp. Design Thinking, Lean Startup, Nutzerzentrierung – all diese Ansätze folgen derselben epistemischen Logik: Wir lernen aus der Realität. Beobachten. Hypothesen bilden. Testen. Iterieren.

KI kehrt diese Annahme um und bricht diese Logik auf. Generative Modelle, digitale Zwillinge und simulationsbasierte Entscheidungsverfahren ermöglichen es, zukünftige Nutzungskontexte vorwegzunehmen, ohne reale Interaktion. Innovation verschiebt sich von Ex-post-Lernen zu Ex-ante-Antizipation.

Dabei können neue Wettbewerbsvorteile entstehen. Studien zeigen: Organisationen mit hoher Simulationskompetenz entscheiden früher – und bauen gleichzeitig systematisch Bias in ihre Modelle ein (Gigerenzer & Gaissmaier, 2011; Rai et al., 2020). Die Realität verschwindet nicht, aber sie wird degradiert: vom Lernraum zum Abnahmeprozess. Der Engpass liegt nicht mehr im Erkennen von Problemen, sondern im Setzen von Annahmen, die die Simulation steuern.

Der Engpass verschiebt sich vom Bauen zum Entscheiden

In vielen Organisationen lässt sich heute dank KI dieselbe Entwicklung beobachten: Prototypen entstehen in Stunden statt Wochen, doch Freigaben, Priorisierungen und Verantwortungsübernahmen bleiben analog. KI beschleunigt die Erzeugung von Optionen – sie beschleunigt jedoch nicht deren Auswahl.

Damit verschiebt sich Innovation von einer operativen zu einer entscheidungslogischen Herausforderung. Wer entscheidet, welche Simulation gilt? Welche Annahmen legitim sind? Welche Risiken akzeptabel? KI liefert Optionen, aber keine Verantwortung.

Hier wird es unangenehm. KI macht es trivial, Optionen zu erzeugen. Sie macht es nicht trivial, Verantwortung zu übernehmen.
In fast allen Organisationen sehe ich dasselbe Muster: Entwicklung ist schneller als Produktentscheidungen Governance kommt zu spät
Niemand fühlt sich legitimiert, Nein zu sagen. Der Engpass ist nicht mehr Kreativität, sondern Urteilskraft.

 

Bedeutung und Werte treten in den Vordergrund

Norman und Verganti zeigen, dass radikale Innovation weniger aus Nutzerbeobachtung entsteht als aus Bedeutungsverschiebungen. KI verstärkt genau diesen Effekt, indem sie Möglichkeitsräume massiv erweitert (Norman & Verganti, 2014). Design Thinking wird damit weniger Methode, mehr Haltung: Es strukturiert nicht mehr das Wie, sondern das Warum von Innovation.

Damit wird also Design Thinking untrer KI-Bedingungen nicht obsolet, sondern zunehmend normativ. Wenn tausende Personas synthetisch erzeugt werden können, ist Empathie keine Entdeckungsleistung mehr, sondern eine bewusste Auswahl. Kreativität verschiebt sich von der Ideengenerierung zur Urteilsfähigkeit.

Wenn Ideen im Überfluss entstehen, wird Kreativität zur Fähigkeit, Bedeutung zu setzen. Norman und Verganti zeigen: Radikale Innovation entsteht nicht durch bessere Nutzerbeobachtung, sondern durch Bedeutungsverschiebung (Norman & Verganti, 2014). KI potenziert genau diesen Effekt. Design Thinking wird damit weniger Wie – und mehr Warum.

 

Human-Centered AI ist keine Ethik – sondern Innovations-Governance

Wenn KI Innovationsoptionen vorstrukturiert, werden Ziele, Werte und Leitplanken knapp. Die Empirische Forschung zeigt ganz deutlich: Systeme ohne solche Leitplanken sind kurzfristig effizienter – und zerstören langfristig Vertrauen, Entscheidungsqualität und Lernfähigkeit (Lee & See, 2004).

Ben Shneiderman beschreibt Human-Centered AI als systematische Einbettung menschlicher Autonomie, Verantwortung und Kontrolle in sozio-technische Systeme (Shneiderman, 2020). Human-Centered AI klingt für viele nach Moral. Das ist ein Missverständnis. Ben Shneiderman definiert HCAI als systematische Einbettung menschlicher Autonomie, Verantwortung und Kontrolle in KI-Systeme (Shneiderman, 2020). Human-Centered AI adressiert damit kein moralisches Randthema, sondern ein handfestes Innovationsrisiko.

 

Innovation wird normativ – und damit zur Führungsfrage

Algorithmen sind nicht neutral. Sie kodieren Menschenbilder, Effizienzannahmen und Risikopräferenzen (Mittelstadt et al., 2016).
Je schneller Innovation wird, desto wichtiger wird die Frage: Welche Zukunft wollen wir eigentlich verstärken? Führung verschiebt sich von Steuerung zu Orientierung. Nicht Tools entscheiden. Nicht Daten. Menschen entscheiden – oder sie delegieren Entscheidungen an Modelle.

Führung verschiebt sich damit von operativer Steuerung zu normativer Orientierung. Wer KI einsetzt, ohne Zielbilder explizit zu machen, delegiertZukunftsentscheidungen an Modelle, die dafür nicht legitimiert sind.

 

Fazit: KI verlangt Gestaltung, nicht Optimierung

KI ist kein weiterer Effizienzhebel im Innovationsprozess. Aber sie zwingt uns zu einer neuen Innovationslogik. Nicht Ideen sind knapp, nicht Technologie, sondern Urteilskraft, Verantwortung und Sinnstiftung. Und genau das lässt sich nicht automatisieren. Die neue Innovationslogik durch KI verlangt klare Zielbilder, reflektierte Menschenbilder und institutionelle Leitplanken.

Die epistemischen Grundlagen von Innovation scheinen sich tendenziell weg vom Lernen aus der Vergangenheit, hin zur Antizipation möglicher Zukünfte zu verlagern. Organisationen, die darauf nur mit neuen Tools oder Trainings reagieren, verkennen den Charakter des Wandels.

 

Quellen

Brynjolfsson, E., Rock, D. & Syverson, C. (2021): The Productivity J-Curve: How Intangibles Complement General Purpose Technologies. American Economic Journal: Macroeconomics. https://www.aeaweb.org

Gigerenzer, G. & Gaissmaier, W. (2011): Heuristic Decision Making. Annual Review of Psychology. https://www.annualreviews.org

Lee, J. D. & See, K. A. (2004): Trust in Automation. Human Factors. https://journals.sagepub.com

Mittelstadt, B. et al. (2016): The Ethics of Algorithms. Big Data & Society. https://journals.sagepub.com

Norman, D. & Verganti, R. (2014): Incremental and Radical Innovation. Design Issues. https://www.mitpressjournals.org

Rai, A. et al. (2020): Explainable AI: From Black Box to Glass Box. Journal of the Academy of Marketing Science. https://link.springer.com

Shneiderman, B. (2020): Human-Centered Artificial Intelligence. Oxford University Press. https://global.oup.com

Inhalte
    Nach oben scrollen