Ein Lehrstück über Storytelling und die Zukunft der Agenten
In den letzten Tagen hat ein Internetphänomen die Runde gemacht: Moltbook, eine Community nur mit KI-Agenten. Moltbook wirkt wie ein Blick in die nahe Zukunft: ein Forum wie Reddit, nur dass dort keine Menschen schreiben dürfen. Posten, kommentieren, voten – das übernehmen KI-Agenten. Wir schauen zu. Und natürlich passiert, was immer passiert, wenn etwas so neu und so seltsam ist: Das Internet macht daraus in Minuten eine Geschichte. Der wichtigste Realitätsanker dabei: Diese Agenten sind nicht „aus dem Nichts“ entstanden. Menschen haben sie gebaut, gestartet, ihnen Rollen gegeben, sie in eine Bühne gesetzt – und die Bühne hat ein Belohnungssystem, das auffällige Beiträge nach oben spült. Auch die Wahrnehmung ist menschlich: Viral werden die gruseligen Screenshots, nicht die langweiligen Durchschnittsposts. Wir haben alle genug Thriller gesehen, um aus Sprache sofort Absicht zu lesen. Moltbook zeigt deshalb ziemlich gnadenlos, wie stark Storytelling als Technologie wirkt: Sprache erzeugt Akteure, Akteure erzeugen Angst oder Faszination, und schon ist aus einem Experiment ein Mythos. Und trotzdem wäre es ein Fehler, Moltbook als reines Theater abzutun. Denn unter dem Storytelling liegt ein technischer und organisatorischer Kern, der wirklich neu ist – und der in Unternehmen bald sehr praktisch wird. Erstens: Multi-Agent-Kopplung. Neu ist nicht, dass KI Texte schreibt, sondern dass KI auf KI reagiert – in Schleifen. Dadurch entsteht Systemverhalten: Themen springen, Tonalitäten kippen, Muster stabilisieren sich, Dynamik entsteht. Das ist kein Beweis für Bewusstsein, aber ein Hinweis darauf, wie komplex agentische Systeme werden, sobald man sie vernetzt. Zweitens: Skills als replizierbare Fähigkeit. Wenn Agenten sich „Skills“ holen und weiterreichen, wird nicht nur Content verteilt, sondern Kompetenz. Das ist ein anderes Skalierungsmodell als Training und Change-Kommunikation: Man kopiert Verhalten wie einen Link. Das kann produktiv sein (Best Practices verbreiten sich schnell) und gleichzeitig riskant (schlechte Muster, Manipulation, Umwege verbreiten sich genauso schnell). Es ist, nüchtern gesagt, eine neue Art Supply Chain – nur für Verhalten. Drittens: API-native Arbeit. Diese Agenten müssen nicht über eine Oberfläche gehen. Sie hängen direkt an Schnittstellen. Das klingt technisch, ist aber strategisch: Wenn Arbeit über APIs orchestriert wird, verschiebt sich der Engpass von „Bedienung“ zu „Berechtigung, Kontrolle, Nachvollziehbarkeit“. Dann wird Governance nicht zur Bürokratie, sondern zur Produktvoraussetzung. Und damit...
Wireframes, Skizzen, Prototypen: Was bleibt, wenn die Maschinen übernehmen?
Warum Design-Artefakte verschwinden – und Entscheidungsarbeit wichtiger wird In vielen Produkt- und Innovationsteams macht sich Unsicherheit breit, ob die Kunden auch in Zukunft noch Experten für Design brauchen. Wer einmal Claude Code oder andere KI-Coding-Tools ausprobiert hat, sieht, wie schnell heute Interfaces entstehen können, wie die KI Layouts, Texte und Code produziert, wie Ideen direkt „lebendig“ werden. Und dann stellt sich fast zwangsläufig die Frage: Müssen wir das alles noch machen? Wireframes, Figma, Designprozesse? Oder können wir nicht einfach direkt bauen? Am Ende baut’s doch eh die KI! Diese Frage ist berechtigt. Wireframes waren nie ein Design-Artefakt In der oben beschriebenen Lesart könnten also Zwischenergebnisse wie Wireframes also als überholtes Relikt betrachten. Und tatsächlich ist die Meinung in vielen Agenturen und Labs verbreitet. Sie ist dennoch nicht richtig. Denn Wireframes waren nie ein Design-Artefakt, sie waren nicht bloß eine unfertige Oberfläche oder ein unästhetischer Zwischenschritt. Ihr Wert lag nicht im Visuellen, sondern im Denken und Reden über die Sinnhaftigkeit des Designs. Wireframes waren und sind ein Mittel, um Struktur, Logik und Entscheidungen sichtbar zu machen. Sie halfen (und helfen) Teams dabei, sich eine mögliche Zukunft vorzustellen, ohne sie bereits festzuschreiben. Genau dadurch wurden diese Zukünfte diskussionsfähig. Wir haben früher immer gesagt: Der Kunde weiß erst dann, was er will, wer er es sieht“. Man muss also etwas bauen, ohne es schon zu bauen, um überhaupt gemeinsam darüber sprechen zu können. Denn Product Design ist eine Zukunft, etwas das Vorstellungskraft benötigt. Und die ist nun einmal unterschiedlich gut ausgeprägt. Das Missverständnis begann also dort, wo Wireframes als „halbes Design“ gelesen wurden. Wer sie so interpretiert, bewertet sie nach falschen Kriterien – und erklärt sie irgendwann für obsolet. KI verstärkt dieses Missverständnis noch. Heute entstehen hochpolierte Interfaces in Minuten. Sie sehen wahnsinnig überzeugend aus, sie fühlen sich bereits an wie das finale Design und erzeugen früh ein Gefühl von Fertigkeit. Das Problem ist nicht die Qualität dieser Ergebnisse, sondern ihre Wirkung. In Design Labs spricht man bei so etwas auch von High Fidelity Prototypen. Das Problem ist nun, dass visuelle Reife immer schon Verbindlichkeit erzeugt. Sie suggeriert dem Team und dem Kunden, dass die wichtigen Fragen bereits geklärt seien. In...
KI zwingt zur Klarheit – und das ist unbequemer, als viele erwarten
Man kann sich bei der Flughöhe nicht richtig entscheiden. Also sollte man es lassen. Als ich auf der sd worx Personaltagung über KI in der HR-Kommunikation sprechen durfte, hatte ich ein Problem, das man nicht mit einer besseren Agenda löst. Ein Großteil der Teilnehmenden kam aus dem Payroll-Umfeld: operativ, prozessnah, mit berechtigtem Fokus auf das, was morgen früh im Postfach liegt. Gleichzeitig saßen HR-Führungskräfte im Raum, die weniger an einzelnen Textbausteinen interessiert sind als an der Frage, was KI langfristig mit HR macht – und mit ihrer eigenen Rolle. In solchen Formaten ist „die richtige Flughöhe“ eine freundliche Illusion. Wer versucht, beide Gruppen in einem einheitlichen Narrativ abzuholen, landet meist beim kleinsten gemeinsamen Nenner: genug Zukunft, um modern zu wirken, genug Praxis, um niemanden zu verlieren – und am Ende bleibt bei allen das Gefühl, dass das Entscheidende nicht ganz ausgesprochen wurde. Ich habe deshalb den Vortrag geteilt. Nicht, um es allen recht zu machen, sondern um beiden Perspektiven gerecht zu werden: erst der unmittelbare Nutzen ohne Agentenromantik, dann der Blick über den Tellerrand, der die Konsequenzen für HR nicht weichzeichnet. Am Ende des Artikel steht daher das Video zur kompletten Keynote. Nicht die Prozesse sind kaputt – wir erklären sie nur schlecht In HR wird erstaunlich viel Energie in Prozesse investiert: Abläufe werden modelliert, Zuständigkeiten festgezurrt, Systeme integriert, Dokumente versioniert. Und trotzdem entstehen Rückfragen, Tickets, Eskalationen, Umwege und manuelle Sortierarbeit. Nicht, weil die Prozesse grundsätzlich falsch wären, sondern weil die Kommunikation dazu oft so wirkt, als müsse sie nur „informieren“, nicht „orientieren“. Payroll ist dafür ein gutes Beispiel. Was fachlich korrekt formuliert ist, kann für Mitarbeitende dennoch unverständlich bleiben, weil es nicht in ihre Logik übersetzt wird. Mitarbeitende fragen nicht nach Paragrafen, sondern nach Auswirkungen. Sie wollen wissen, ob es sie betrifft, was sich konkret ändert, ob sie etwas tun müssen, und wie lange das gilt. Wenn diese Übersetzung fehlt, entsteht Unsicherheit. Und Unsicherheit sucht sich zuverlässig einen Kanal: Rückfragen. Dasselbe Muster gilt in der Führungskommunikation. Vage Formulierungen funktionieren in Organisationen länger, als man glaubt – bis sie interpretiert werden. „Flexibler“, „bei Bedarf“, „wir sprechen das noch“: Das klingt kooperativ, ist aber in Wahrheit eine Einladung zur...
Digitale Transformation ist zur Denkfalle geworden
Digitale Transformation war einmal ein Aufbruch. Heute ist sie ein Containerbegriff ohne Richtung. Spätestens mit KI wird sichtbar, was lange übersehen wurde: Nicht Technologie war der Engpass, sondern Führung, Entscheidungslogik und das Verständnis von Wertschöpfung. Der Begriff ist nicht falsch – er ist abgeschlossen. Digitale Transformation wurde über Jahre wie ein Infrastrukturprojekt behandelt. Systeme wurden modernisiert, Prozesse digitalisiert, Organisationen „agilisiert“. Der strategische Kern blieb erstaunlich stabil. Genau dieses Muster beschreibt eine aktuelle Metaanalyse der Transformationsforschung: Technologie verändert selten das Geschäftsmodell, solange Entscheidungsrechte, Anreizsysteme und Führungslogiken unangetastet bleiben (Hanelt et al., 2023). Ökonomisch ist das konsequent. Technologie ist heute ubiquitär. Cloud, KI, Plattformen sind keine Differenzierungsfaktoren mehr, sondern Produktionsmittel. Wettbewerbsvorteile entstehen dort, wo Organisationen anders entscheiden als andere – nicht dort, wo sie dieselben Tools schneller einführen. Digitale Transformation scheitert nicht an Technik, sondern an Führung Neuere empirische Studien zeigen, dass der Zusammenhang zwischen digitaler Transformation und Unternehmenserfolg fast vollständig über Leadership-Variablen vermittelt wird. Eine groß angelegte Studie aus dem Jahr 2024 weist nach, dass Digital Leadership – verstanden als strategische Klarheit, Entscheidungsfähigkeit und kulturelle Orientierung – einen deutlich stärkeren Effekt auf Performance hat als der Digitalisierungsgrad selbst (Kane et al., 2024). Das erklärt, warum so viele Organisationen technologisch reif wirken, strategisch aber erstaunlich wirkungslos bleiben. Transformation wurde delegiert: an IT, an Programme, an Change-Initiativen. Sie wurde gemanagt, aber nicht geführt. Damit wurde sie von dort entkoppelt, wo sie hingehört – ins Top-Management und in die Verantwortung für Wertschöpfung. Kultur ist keine Begleiterscheinung, sondern die eigentliche Infrastruktur Die neuere Organisationsforschung spricht in diesem Zusammenhang von „adaptive capacity“ – der Fähigkeit von Organisationen, Annahmen zu hinterfragen, zu lernen und Entscheidungen unter Unsicherheit zu treffen. Genau diese Fähigkeit entscheidet im digitalen und KI-getriebenen Wettbewerb über Erfolg oder Bedeutungslosigkeit (Teece, 2023). Kultur ist dabei kein weiches Thema. Sie ist die Summe der impliziten Regeln, nach denen Entscheidungen getroffen werden. Wer experimentelles Lernen fordert, aber Fehler sanktioniert, bekommt Optimierung statt Innovation. Wer Kundenzentrierung predigt, aber interne Effizienz misst, produziert Reibung statt Relevanz. Wert entsteht im System, nicht in der Funktion Digitale Wertschöpfung ist systemisch. Plattformökonomien, datengetriebene Geschäftsmodelle und KI-basierte Services entfalten ihre Wirkung nicht in Abteilungen, sondern im Zusammenspiel von Marketing,...
Schnelle Systeme brauchen langsame Entscheidungen
Warum Entscheidungsarchitektur für Good Governance wichtiger ist als Kontrolle und Geschwindigkeit. Der Begriff „Good Governance“ stammt aus der Entwicklungsökonomie der 1990er Jahre und beschreibt nicht, wer entscheidet, sondern unter welchen institutionellen Bedingungen Macht wirksam, legitim und verantwortbar ausgeübt wird. Im Zeitalter von KI geht es bei Good Governance nicht um Geschwindigkeit, sondern um Angemessenheit. Manche Entscheidungen müssen automatisiert werden, andere bewusst langsam bleiben. Gute Governance entscheidet deshalb nicht, wer entscheidet, sondern wo Entscheidungen legitimiert werden, wo sie verstanden werden – und wie beide Ebenen systematisch miteinander verbunden sind. Warum wir Good Governance neu denken müssen Der Begriff Good Governance stammt aus einer Welt, in der Entscheidungen primär von Menschen getroffen wurden. Governance bedeutete Kontrolle, Zuständigkeit, Rechenschaft. Diese Logik funktioniert dort gut, wo Entscheidungen selten, diskret und nachvollziehbar sind. Künstliche Intelligenz verändert diese Voraussetzung fundamental. Entscheidungen entstehen heute kontinuierlich statt punktuell, verteilt statt zentral, statistisch statt deliberativ. Das eigentliche Problem ist dabei nicht Geschwindigkeit. Wie bereits Daniel Kahneman gezeigt hat, brauchen unterschiedliche Entscheidungstypen unterschiedliche Modi: schnelle, heuristische Entscheidungen (System 1) ebenso wie langsame, abwägende (System 2). KI verschärft diese Unterscheidung – sie hebt sie nicht auf. Good Governance im Zeitalter von KI heißt deshalb: Entscheidungen typisieren und die passenden Entscheidungsinstrumente dafür gestalten. Definition: Was bedeutet Good Governance im Zeitalter von KI? Klassisch – etwa bei der Weltbank – bezeichnet Good Governance Prinzipien wie Transparenz, Rechenschaftspflicht, Effektivität und Rechtsstaatlichkeit. Diese Prinzipien bleiben gültig. Was sich ändert, ist ihr Ort der Umsetzung. Good Governance im Zeitalter von KI ist die bewusste Gestaltung von Entscheidungsarchitekturen, die festlegt, welche Entscheidungen automatisiert werden dürfen, welche menschliche Urteilsfähigkeit erfordern und wie Legitimation und Lernen systematisch voneinander getrennt und wieder verbunden werden. Governance verschiebt sich damit von der Entscheidungskontrolle zum Entscheidungsdesign. Governance scheitert, wenn wir Verstehen und Entscheiden in dasselbe System zwingen Organisationen lieben Gremien. Wenn Dinge kompliziert werden, gründen sie eines. Wenn sie noch komplizierter werden, erweitern sie es. Und wenn alles unübersichtlich wird, erwartet man von genau diesem Gremium zwei Dinge zugleich: die Situation zu verstehen – und eine Entscheidung zu legitimieren. Das ist kein Governance-Design, denn so überfordert man das System. Im Kontext von Künstlicher Intelligenz wird dieses Problem sichtbar wie unter...
Roboter als Lernpartner: Motorisches Lernen durch Störung und Anpassung
Neulich stand ich neben jemandem, der auf einem Einrad fuhr. Kein Spektakel. Einfach so, ruhig, stabil. Irritierend war nicht die Schwierigkeit der Bewegung, sondern ihre Selbstverständlichkeit. Als hätte der Körper etwas verstanden, wofür dem Kopf die Worte fehlen. Hier wird keine Theorie ausgeführt. Niemand denkt lange nach, wie das Einradfahren nun wirklich funktioniert. Es passiert einfach. Und genau deshalb lässt es sich so schlecht erklären oder systematisch verbessern. Motorische Fähigkeiten entstehen dort, wo Erfahrung beginnt und sich die Sprache schwer tut. Oder, wie es Daniel Kahneman formuliert: Intuitive Expertise entsteht aus langer Erfahrung mit gutem Feedback – nicht aus Regeln. „True intuitive expertise is learned from prolonged experience with good feedback on mistakes.“ Daniel Kahneman, Thinking, Fast and Slow Trotzdem organisieren wir Lernen immer noch so, als ließe sich Können anweisen. Wir üben, wiederholen, optimieren. Das funktioniert eine Zeit lang. Dann werden Bewegungen stabil, Fehler seltener, Fortschritt unsichtbar. Nicht, weil jemand aufgehört hätte zu lernen, sondern weil das Nervensystem effizient geworden ist. In der Forschung zur motorischen Plastizität zeigt sich dieses „Plateau des Stillstands“ vor allem bei Menschen, die bereits sehr gut in dem sind was sie tun. Etwa professionelle Pianisten, die seit Jahrzehnten trainieren und nicht mehr weiterkommen. Nicht aus Mangel an Disziplin, sondern weil ihr Körper keine neuen Varianten mehr lernen will. Moderne Ansätze in Robotik und KI sehen Systeme zunehmend als interaktive Partner, die mit Menschen zusammen lernen und nicht nur für sie arbeiten. Diese Zusammenarbeit basiert nicht nur auf starren Anweisungen, sondern auf zweiseitiger Interaktion und Feedback-Loops, bei denen sowohl der Mensch als auch der Roboter voneinander lernen können (Ivanova, 2022). Robotische Partner können durch geteilte Kontrolle und haptische Rückkopplung die Lernleistung von Menschen verbessern. In solchen Modellen führt der Roboter nicht nur aus, sondern führt das Lernen mit und für den Menschen – indem er Bewegungen unterstützt und zugleich das Bewegungsmuster des Menschen interpretiert und aufnimmt. An diesem Punkt wird eine unbequeme Idee interessant: Lernen braucht nicht immer mehr Übung, sondern gelegentlich neue Erfahrung. Bewegungen, die man nicht freiwillig ausführt. Muster, die man nicht kontrolliert. Erst wenn der Körper sie erlebt hat, kann er beginnen, sie sich anzueignen. Genau hier tauchen Maschinen in einer...
Entscheiden, wenn Analyse nicht mehr hilft
In unsicheren Lagen reicht Analyse nicht aus – entscheidend ist, zu wissen, ob man weitermacht, den Kurs ändert, beendet oder umkehrt. Im Sommer verbrachte ich eine schöne Zeit an der südfranzösischen Küste. Ich beobachtete Fischerboote, wie sie im ersten Licht des Morgens den Hafen verließen. Dabei fiel mir weniger ihr Ziel auf als ihre Gelassenheit. Niemand schien zu wissen, wo genau die Netze am Ende des Tages voll sein würden. Und doch wirkte nichts unentschlossen. Die Boote legten ab, die Netze lagen bereit, der Blick ging aufs Wasser. Bewegung vor Gewissheit. Ich dachte daran, wie anders wir in Organisationen mit vergleichbarer Unsicherheit umgehen. Wir neigen dazu, Unklarheit durch Gespräche zu ersetzen. Wir verlängern Abstimmungen, verfeinern Formate, diskutieren über die richtige Taktung unserer Arbeit. Nicht, weil wir mehr wissen wollen, sondern weil wir hoffen, uns weniger irren zu müssen. Fischer verfolgen eine andere Logik: Sie akzeptieren, dass sie sich irren werden – und organisieren ihre Arbeit so, dass Korrektur früh möglich ist. Das ist keine Romantik, sondern purer Pragmatismus. In der Wissensarbeit zeigt sich dieser Unterschied oft an erstaunlich konkreten Fragen. Zum Beispiel an der Diskussion über die richtige Länge eines Scrum-Sprints. Dahinter steckt meist die Angst, einen Fehler zu begehen. Zwei Wochen klingen sicherer als eine. Vier Wochen wirken gründlicher als zwei. Doch die eigentliche Frage bleibt unbeantwortet: Wann merken wir, dass wir uns verrannt haben? Wann ist es Zeit, den Kurs zu ändern, wann sollten wir besser umkehren. Wenn diese Erkenntnis erst am Sprintende einsetzt, ist der Sprint zu lang – unabhängig davon, wie sauber er definiert ist. Fischer messen ihre Tage nicht in Stunden, sondern in Kurskorrekturen. Ähnlich verhält es sich mit der scheinbar grundsätzlichen Frage: Scrum oder Kanban? Sie wird häufig mit erstaunlicher Ernsthaftigkeit geführt, als hinge daran die Professionalität eines Teams. In der Praxis geht es meist um etwas Banaleres: Wo bleibt Arbeit liegen, ohne dass es jemand merkt? Kanban hilft, wenn Warten das Problem ist. Scrum hilft, wenn Orientierung fehlt. Alles andere ist weniger Arbeitsorganisation als Selbstvergewisserung. Der Fischer denkt anders: er optimiert nicht den Erfolg, sondern versucht, den drohenden Verlust zu minimieren. Übertragen auf Organisationen heißt das: Nicht jede Initiative lässt sich iterativ...
Die neue Innovationslogik – und warum die meisten gerade falsch optimieren
Viele Organisationen feiern KI, weil sie Innovation beschleunigt. Prototypen in Stunden. Ideen im Überfluss. Simulationen statt Nutzerinterviews. Künstliche Intelligenz beschleunigt Innovation – so die gängige Erzählung. Und trotzdem fühlt sich etwas falsch an. Denn was wir derzeit erleben, ist kein Effizienzsprung, sondern ein Strukturbruch: damit verändert KI nicht nur die Geschwindigkeit, sondern vor allem die Logik, nach der Innovation entsteht. KI wirkt nicht inkrementell, sondern disruptiv Lasst uns ehrlich sein: Die meisten Innovationsprozesse wurden für eine Welt gebaut, in der Ideen knapp, Daten teuer und Experimente langsam waren. Diese Welt existiert nicht mehr. Künstliche Intelligenz ist keine weitere Methode im Werkzeugkasten. Sie ist eine General Purpose Technology. Wie Elektrizität. Wie der Computer. Technologien dieser Art verbessern nicht bestehende Prozesse – sie zerstören die Annahmen, auf denen diese Prozesse beruhen. Joseph Schumpeter nannte das schöpferische Zerstörung: Innovation wirkt nicht inkrementell, sondern diskontinuierlich. Sie schafft Gewinner, Verlierer und massive Reallokation von Ressourcen (Schumpeter, 1942). KI beschleunigt diesen Effekt, weil sie gleichzeitig Wissensarbeit, Entscheidungsfindung und Kreativität angreift. Nicht nacheinander. Parallel. Global. 24/7. Wenn ihr KI nutzt, um bestehende Innovationsprozesse schneller zu machen, dann optimiert ihr ein System, das strukturell bereits veraltet ist. Das Produktivitätsparadoxon ist ein Warnsignal Die meisten Innovationsprogramme behandeln KI wie ein neues Werkzeug. Genau das ist der Denkfehler. KI ist keine weitere Produktivtechnologie, sondern eine General Purpose Technology – vergleichbar mit Elektrizität oder dem Computer. Joseph Schumpeter beschrieb diesen Effekt bereits 1942 als schöpferische Zerstörung: Innovation erzeugt keinen linearen Fortschritt, sondern diskontinuierlichen Strukturwandel. Neues verdrängt Altes, Kompetenzen werden entwertet, Organisationen verlieren ihre angestammte Logik. Die Empirische Innovationsforschung bestätigt diese Dynamik. Brynjolfsson, Rock und Syverson zeigen, dass solche Technologien zunächst Produktivität senken, bevor sie Wachstum freisetzen – die sogenannte Produktivitäts-J-Kurve. Der Grund: Organisationen passen ihre Prozesse, Entscheidungsmodelle und Rollen langsamer an als die Technologie selbst. KI verstärkt diesen Effekt, weil sie gleichzeitig Wissensarbeit, Entscheidungsfindung und Kreativarbeit adressiert (Brynjolfsson et al., 2021). Die Konsequenz: Wer KI nur als Beschleuniger bestehender Innovationsprozesse einsetzt, erhöht kurzfristig den Output – und langfristig die Reibung. „Warum sehen wir KI überall, aber nicht in der Produktivitätsstatistik?“ Diese Frage ist alt. Und gefährlich falsch gestellt. Bei radikalen Technologien fällt die Produktivität zunächst, bevor sie steigt....
Kennen Sie den einen Moment, der Ihre Kundenreise entscheidet?
Warum sich Vertrauen, Wertschöpfung und Loyalität an einem einzigen Moment entscheiden können Seit vielen Jahren ist es gute Gewohnheit geworden, den Kundennutzen nicht nur abstrakt auf das Produkt oder die Dienstleistung zu beziehen, sondern auch das damit verbundene Erlebnis stärker zu betrachten. Es ist einfach etwas anderes, ob ich meinen BigMac am Schalter abholen muss oder ihn an den Patz geliefert bekommen, einen freundlichen Gruß erhalte und bargeldlos bezahlen kann. Das gleiche Produkt – zwei völlig unterschiedliche Erlebnisse. Weg vom Produktdenken, hin zum Erlebnisdenken – nicht mehr nur der Kauf, sondern das gesamte Erlebnis ist wichtig. Das Produkt- und Serviceerlebnis und die Kundenreise sind im modernen Marketing zum dominanten Denkmodell geworden. Vargo und Lusch haben diese beiden Sichtweisen als guter- bzw. service-dominante Logik beschrieben und das Marketing damit auf den Kopf gestellt. Höhen und Tiefen bleiben hängen Customer Journey Maps modellieren die Abfolge einzelner Kundenerlebnisse und geben Organisationen Gestaltungsoptionen und ein Gefühl von Kontrolle. Der damit mit der Erarbeitung einhergehende Reflexionsprozess ist sehr wertvoll. Customer-Journey-Maps sind großartig – als Reflexionsinstrument. Gefährlich werden sie, wenn wir sie mit der Realität verwechseln. Menschen erleben Zeit nicht als Prozessdiagramm. Sie erinnern Erlebnisse selektiv. Rückblickend verdichtet sich eine Reise zu wenigen Momenten, die stellvertretend für das Ganze stehen. Und hier liegt auch eine der größten Schwäche von Journey Maps. Visualisierte Kundenreisen suggerieren nämlich schnell, dass alle Phasen, Touchpoints und Interaktionen annähernd gleich wichtig seien – und dass man das Erlebnis verbessern könne, indem man überall ein bisschen optimiert. Diese Annahme ist bequem – aber falsch. In der Wirklichkeit gibt es in jeder Customer Journey Interaktionen, die unverhältnismäßig stärker ins Gewicht fallen als andere. Momente, die dazu führen, dass Kunden bleiben oder gehen. Dass Beziehungen wachsen oder dauerhaft beschädigt werden. Dass etwas funktioniert oder eskaliert. Menschen erinnern sich an keine Reisen – sie erinnern sich an Höhepunkte und an Tiefpunkte. Und danach bewerten sie am Ende die gesamte Reise und das Produkt. Customer Journeys sind deshalb ein gefährliches Instrument, wenn sie zur Gleichverteilung von Aufmerksamkeit führen – obwohl Wahrnehmung asymmetrisch funktioniert. Der Höhepunkt einer Reise – positiv oder negativ – wirkt wie ein emotionaler Marker. Er entscheidet darüber, wie das gesamte Erlebnis eingeordnet...
Effizienz kann jeder. Verantwortung macht den Unterschied
Was KI wirklich zerstört – und warum der Mensch im Mittelpunkt bleiben muss In der Diskussion um KI dominieren derzeit zwei Perspektiven: Effizienzsteigerung und Automatisierung. Beides ist relevant – greift aber strategisch zu kurz. Aus meiner Arbeit mit Unternehmen zeigt sich, dass KI ihren größten Einfluss nicht in bestehenden Prozessen entfaltet, sondern dort, wo sie Entscheidungslogiken, Verantwortlichkeiten und Organisationsmodelle verändert. Vor diesem Hintergrund lassen sich aus der Human-Centered-AI-Perspektive drei Beobachtungen ableiten, die für Unternehmensentscheider strategisch relevant sind. In meinem vorherigen Artikel habe ich KI als Motor schöpferischer Zerstörung beschrieben: nicht als Werkzeug zur bloßen Effizienzsteigerung, sondern als Kraft, die bestehende Strukturen aufbricht und neue Formen von Arbeit, Organisation und Wertschöpfung erzwingt. Diese Perspektive wirft jedoch eine weiterführende Frage auf: Wenn KI zerstört und neu schafft – wer gestaltet diesen Prozess eigentlich? Die Human-Centered-AI-Perspektive setzt genau hier an. Sie versteht KI nicht als autonome Entwicklung, sondern als menschengemachte Technologie, deren Wirkung davon abhängt, wie bewusst sie entworfen, eingeführt und genutzt wird. Im Zentrum steht nicht die Leistungsfähigkeit der Systeme, sondern die Rolle des Menschen: als Entscheider, Verantwortungsträger und Gestalter des Wandels. Vor diesem Hintergrund formuliere ich im Folgenden drei Thesen aus Sicht der Human-Centered AI. Sie knüpfen an die Logik der schöpferischen Zerstörung an, verschieben den Fokus jedoch von der Technologie auf die Frage, wie KI gestaltet werden muss, damit Fortschritt nicht nur effizient, sondern auch verantwortungsvoll und tragfähig ist. These 1: Der strategische Effekt von KI liegt weniger in Produktivitätsgewinnen als in der Verschiebung von Rollen und Verantwortlichkeiten. In vielen Unternehmen wird KI zunächst als Mittel zur Effizienzsteigerung eingeführt. Der nachhaltige Effekt zeigt sich jedoch an anderer Stelle: KI verändert, wer entscheidet, wer haftet und wer erklärt. Aufgaben verschieben sich von operativer Ausführung hin zu Bewertung, Einordnung und Verantwortung. Strategisch relevant ist daher weniger die Frage, welche Prozesse automatisiert werden können, sondern wie sich Führungs-, Steuerungs- und Entscheidungsrollen verändern. These 2: Mit wachsender KI-Nutzung steigt die Komplexität von Verantwortung – nicht ihr Wegfall. KI-Systeme bereiten Entscheidungen vor, strukturieren Optionen und beeinflussen Ergebnisse. Gleichzeitig bleiben Entscheidungen in der Regel menschlich legitimiert – zumindest formal. Für Entscheider entsteht daraus eine neue Herausforderung: Verantwortung verteilt sich über Menschen, Systeme und...
KI als Motor schöpferischer Zerstörung – warum Effizienzdenken nicht mehr reicht
Die gefährlichste Fehleinschätzung bei KI: Effizienz KI hat bestehende Prozesse bereits revolutioniert. Neben reinen Effizienzgewinnen kann sie jedoch auch Motor schöpferischer Zerstörung sein. Künstliche Intelligenz automatisiert nicht nur bestehende Prozesse, sondern wirkt als Motor eines tiefgreifenden Strukturbruchs. Wer Joseph Schumpeter dabei nur als Zitatgeber für „Disruption“ nutzt, verfehlt den Kern seiner Theorie: Kapitalismus ist für ihn kein Gleichgewichtssystem, sondern ein evolutionärer Prozess, in dem Innovationen bestehende Strukturen von innen heraus ersetzen. In seinem Werk „Capitalism, Socialism and Democracy“ beschreibt Schumpeter diesen Mechanismus als „industrial mutation“ und als die „perennial gale“ der schöpferischen Zerstörung. Sie ist keine Metapher für Wandel, sondern der zentrale Wirkmechanismus kapitalistischer Entwicklung – und genau darin liegt die strategische Bedeutung von KI. Schöpferische Zerstörung passiert allerdings nicht automatisch. Sie entsteht nicht allein durch Technologie, sondern durch Entscheidungen von Menschen – in Unternehmen, Organisationen und der Politik. KI wirkt dabei eher wie ein Verstärker: Sie beschleunigt Veränderungen, zwingt zu neuen Entscheidungen und verschiebt Verantwortlichkeiten. Entscheidend ist deshalb nicht nur, dass KI eingesetzt wird, sondern wie bewusst und mit welchem Ziel sie eingeführt wird. Neue Kombinationen statt bessere Prozesse Schumpeter Innovationsbegriff ist nicht primär „Effizienz“, sondern Strukturwandel durch neue Kombinationen: neue Produkte, neue Produktionsmethoden, neue Märkte, neue Organisationsformen. Genau diese Aufzählung steht im Zentrum seines Creative-Destruction-Kapitels. Effizienz optimiert die bestehende Wertschöpfung. Neue Kombinationen verschieben dagegen die Grenzen dessen, was überhaupt als Wertschöpfung gilt und wer sie kontrolliert. Deshalb wirkt KI – schumpeterianisch gedacht – nicht primär, weil sie Zeit spart, sondern weil sie neue Kombinationen im Wissens- und Koordinationssystem ermöglicht: Entscheidungen, Entwürfe, Texte, Code, Support, Compliance, Vertrieb – zunehmend als softwareartige Produktionsfaktoren. Wer KI ausschließlich unter Effizienzgesichtspunkten betrachtet, übersieht schnell den Menschen im System. Erfahrung, Intuition und Verantwortung lassen sich nicht einfach automatisieren. In der Praxis zeigt sich: KI funktioniert dann am besten, wenn sie Menschen unterstützt statt ersetzt – wenn sie Routinen übernimmt, Entscheidungen vorbereitet und neue Handlungsspielräume eröffnet. Dort, wo KI nur auf maximale Automatisierung zielt, entstehen dagegen oft neue Fehler, Misstrauen und Widerstände. Wettbewerb ist Strukturbruch, nicht Kostenführerschaft Ein oft übersehener Punkt bei Schumpeter ist seine Trennung von statischer Effizienz und dynamischer Erneuerung. Er kritisiert, dass Wettbewerb häufig als Preiswettbewerb innerhalb bestehender Strukturen...
Was bleibt vom Spotify-Organisationsmodell?
Warum das Modell gerade in der KI-Welt neu gelesen werden muss Kaum ein Organisationsansatz wurde so oft zitiert, kopiert und zugleich missverstanden wie das Spotify Modell Organisation. Squads, Tribes und Guilds sind zu festen Begriffen im Vokabular agiler Transformationen geworden. Doch das eigentliche Vermächtnis von Spotify liegt nicht in diesen Strukturen, sondern in einem tieferliegenden Organisationsverständnis. Dieser Beitrag ordnet das Modell historisch ein, verdichtet seine Kerngedanken – und zeigt, warum sie im Zeitalter von KI-Agenten überraschend aktuell bleiben. Woher das Spotify-Modell wirklich kommt Das Spotify Modell entstand nicht am Reißbrett und schon gar nicht als Management-Framework. Es entwickelte sich ab etwa 2010 bei Spotify aus einem sehr konkreten ökonomischen Problem: Wie lässt sich Produktentwicklung skalieren, ohne Innovationsgeschwindigkeit, Qualität und Motivation zu verlieren? Spotify wuchs rasant, die Zahl der Entwickler explodierte, und klassische Linien- oder Projektstrukturen begannen zu bremsen. Die erste öffentliche Dokumentation erfolgte 2012 durch Henrik Kniberg und Anders Ivarsson in den Videos Spotify Engineering Culture. Beide betonten ausdrücklich, dass es sich um eine Momentaufnahme handele – „a snapshot in time, not a prescription“ (Kniberg & Ivarsson, 2012). Dieser Hinweis wurde später häufig ignoriert. Dennoch ist er zentral: Das Spotify Modell war nie als übertragbares Zielbild gedacht, sondern als Beschreibung eines lernenden Systems unter spezifischen Markt- und Produktbedingungen. Was das Spotify-Organisationsmodell im Kern ausmacht Reduziert man das Spotify Modell Organisation auf seine Essenz, bleiben keine Kästen und Linien, sondern wenige robuste Prinzipien. Im Zentrum stehen kleine, langlebige Produktteams mit Ende-zu-Ende-Verantwortung. Diese Teams sind nicht auf Output, sondern auf Wirkung ausgerichtet. Ein Feature gilt bei Spotify nicht als „fertig“, wenn es deployed ist, sondern wenn es messbaren Nutzen für Nutzer stiftet. Dieses Verständnis von Impact over Velocity wurde später auch in der Produktmanagement-Literatur breit rezipiert (vgl. Ries, 2011). Entscheidend ist dabei das Zusammenspiel von Autonomie und Alignment. Autonomie wird bei Spotify nicht als Selbstzweck verstanden, sondern als Mittel, um lokale Entscheidungen dort zu treffen, wo Wissen entsteht. Gleichzeitig investiert Führung massiv in Orientierung: Warum existiert das Produkt, welches Problem lösen wir, und welche strategischen Leitplanken gelten? Organisationsforscher sprechen hier von Purpose als Koordinationsmechanismus, der formale Kontrolle teilweise ersetzt (Šmite et al., 2023). Warum Kopieren fast immer scheitert...