Selbstverstärkendes Lernen als digitaler Wettbewerbsvorteil

Wie können in einer von Plattform-Ökosystemen, künstlicher Intelligenz und hoher Transparenz dominierten komplexen Welt noch genügend Potentiale für eine Differenzierung vom Wettbewerb gefunden werden?

In meinem letzten Beitrag habe ich mit den vier Bedingungen tiefgehender Wertschöpfung ein Zielbild für Wertschöpfung entwickelt, das die Beziehung zwischen Kunde und Unternehmen, ja streng genommen zwischen allen den Kundenwert steigendernden wertschöpfenden Parteien in das Zentrum jeder Strategie stellt.

Die Wertschöpfungsbeziehung ist jedoch nur dann nachhaltig, wenn sie einen Transfer zulässt und die Services wirklich den empfundenen Kundenwert steigern. Als einen der Bedingungen tiefgehender Wertschöpfung (Deep Value) habe ich „Prozessuales Lernen“ beschrieben. Tatsächlich werden nur diejenigen Unternehmen genügend Differenzierungspotential im Wettbewerb entwickeln, die das Lernen prozessual als elementaren Bestandteil ihrer Produkte und Services eingebaut haben. Vordenker wie John Hagel weisen darauf hin – ohne dass sie erhört würden – dass Die Fähigkeit einer Organisation zu lernen, zum entscheidenden Wettbewerbsvorteil werden kann (vgl. John Hagel zu Scalable Learning).

Ich möchte daher nun etwas tiefer auf die Wichtigkeit des Lernens für Wertschöpfung eingehen.

Klassische Konzepte von Wertschöpfung wie Porters Wertschöpfungskette oder die Wertstromanalyse behandeln Lernen eher am Rande.

Klassische Konzepte von Wertschöpfung wie Porters Wertschöpfungskette oder die Wertstromanalyse behandeln Lernen eher am Rande. Auch lineare Prozessmuster wie das Stage-Gate-Verfahren oder das Wasserfallmodell gehen implizit davon aus, dass zu Beginn des Prozesses genug Wissen vorhanden ist, um am Ende genug Kundenwert zu schaffen. Dabei stehen die entscheidenden Figuren am Beginn der Pipeline. Wie in einem Marvel-Comic finden lineare Prozesse ohne Superhelden kein Happy End.

Das Wasserfallmodell braucht Prozesshelden. Alle folgenden Phasen ergeben sich aus der initialen Planung – alle Experten sind nur Erfüllungsgehilfen der vorhergehenden Phasen. Verrückterweise benötigt man in diesen Modellen Projekt- und “Prozessmanager, da der Prozess sich selbst nicht ganz traut. Ohne diese magischen Figuren führt er offensichtlich nicht mehr zum gewünschten Ergebnis. Man könnte auch formulieren: das Wasserfall-Modell traut sich selbst nicht. Ohne den erfahrenen Projektmanager drohen die meisten linearen Projekte zu scheitern, da jeder im Team in eine andere Richtung zieht und sich alles im Projektverlauf ständig verändert.

Wie in einem Marvel-Comic finden lineare Prozesse ohne Superhelden kein Happy End. Nur Superhelden bändigen den Wasserfall.

Die Heldengeschichte linearer Prozesse hat eine lange Tradition. Über all die Jahrhunderte geschah Projektplanung meist formlos und basierte auf den Erfahrungen und Kenntnissen der Verantwortlichen. Weder militärische Feldzüge, noch die Errichtung großer Bauwerke oder lange Entdeckungsreisen wurden detailliert geplant. Entscheidend war das auf Erfahrung beruhende intuitiv vorausschauende Handeln der Verantwortlichen. Eine von der Führungsfigur losgelöste Systematik (aka Projektmanagement) entwickelte sich zu Beginn des 20. Jahrhunderts. Henry Gantt entwickelte im Jahr 1910 den Balkenplan. Dieser wurde erstmals bei der Errichtung des 1935 fertiggestellten Hoover-Dam [1] eingesetzt und gilt bis heute als Grundlage im Projektmanagement. Der Aufstieg linearer Planungsmethoden ging dann Hand in Hand mit der Ausweitung der Massenproduktion.

In Wirklichkeit ist das Wissen um den Prozess sehr beschränkt

Das echte Leben sieht leider etwas anders aus als ein Marvel-Comic. Ist das gewünschte Ergebnis bekannt und sind die Rahmenbedingungen stabil, so lässt sich damit gut planen. In einer Zeit, in der Märkte mit Standardprodukten versorgt werden mussten, die ungesättigte, jedem bekannte Bedürfnisse befriedigen, war es hoch wirtschaftlich. In der Ära des Mass Customizing, der personalisierten Produkte, der sich den persönlichen Präferenzen anpassenden Serviceprodukten, der Komplexität der Rahmenbedingungen, ist der Marvel-Superhero-Ansatz problematisch.

Tatsächlich ist das Wissen um die wirklichen Bedürfnisse des Kunden sehr beschränkt. Es gibt zunehmend weniger gesichertes Wissen am Beginn der Kette, sondern dieses ergibt sich erst aus dem Prozess selbst. Wertschöpfung gestaltet sich also nicht in einer Kette (Push), sondern in einem Netzwerk (Pull) weiterer Beziehungen.

Lernen hat keinen Anfang und kein Ende

Zudem suggeriert die Idee eines Projekts, dass es einen Anfang und ein Ende einer Entwicklung gibt. In agilen Entwicklungen (wie bei Scrum) gibt es dagegen eine iterative Taktung und die Abfolge von Feedback, Lernen und Verändern. Der Prozess beinhaltet Lernen als elementares Element. Wenn man es zu Ende denkt, endet dieser Prozess im Grunde nie, nur der Fokus der Aufgaben ändert sich.

Die reichhaltigste Quelle für organisatorisches Lernen ist der Kunde. Ein lernender Prozess stellt daher den Kunden in den Mittelpunkt. Dies geschieht heute schon in agilen Entwicklungsprojekten, die ja iterativ ausliefern, aber in den anderen Bereichen von Wertschöpfung gibt es diese Feedbackschleifen noch viel zu wenig. Möglichkeiten zum Lernen ergeben sich ständig, der Kunde sendet unentwegt Signale aus, die das Unternehmen allerdings zunächst aufnehmen, dann richtig verstehen und schliesslich in Handlungen umsetzen muss, damit neue Wertschöpfung entstehen kann.

Menschen sind keine Personas.

Das Zeitalter der Personalisierung bedeutet, Personas und starre Zielgruppen zu überwinden und den einzelnen Mensch als mehrdimensionales Ökosystem zu betrachten. Die Menschen wollen keine Personas mehr sein. Dies geht nur, wenn die Produkte und Services selbst über Kommunikationsfähigkeit verfügen, um ständig Kunden-Feedback abzufragen und den Prozess mit diesem Wissen ständig zu füttern (integrierter Dialog).

Lernender Prozess und Deep Learning

In der digitalen Ökonomie ist der dominante Prozess von Wertschöpfung daher optimierendes Lernen als Annäherung an eine unbekannte Funktion. Die Verfahren der künstlichen Intelligenz erlauben es in Zukunft, unbekannte Zusammenhänge iterativ durch Nutzer-Feedback zu erschließen. Unternehmen müssen also über Schnittstellen und Lernalgorithmen für Netzstrukturen verfügen. Diese Lernalgorithmen arbeiten an hidden layers zwischen Eingabeschicht und Ausgabeschicht zu entdecken (künstliches neuronales Netz).

Gleichzeitig sollten es Unternehmen ermöglichen, dass die Daten und die Hidden Layers auch gleichermaßen von Dritten genutzt werden können, die sich auf den gemeinsamen Lernprozess festlegen und daran teilhaben und dazu beitragen möchten. Dies ist nur bei einer Öffnung der Unternehmensgrenzen nach außen möglich. Lernen in der Isolation des eigenen Unternehmens ist notwendig beschränkt. Unternehmen, die tiefgehende Wertschöpfung ermöglichen wollen, sollten sich daher Gedanken über Kooperationsformen mit anderen Unternehmen machen. Eine abgestimmte, offene Schnittstellen-Strategie kann hier Synergien ermöglichen. Perspektivisch muss ein Enterprise Service Bus abgestuft auch Partnern und Kunden offen stehen. Neue Schnittstellen-Konzepte sind gefragt und für das Wertschöpfungspotenial eines Unternehmens strategisch relevant.

Fazit und Ausblick: selbstverstärkendes Lernen als Gewinner-Strategie

Unternehmen müssen Lernen breiter und elementarer verstehen. Lernen ist elementare Eigenschaft nachhaltiger Wettbewerbsstrategien und umfasst sowohl IT-Systeme, die Mitarbeiter und vor allem das Design neuer Produkte und Services sowie ihrer Geschäftsmodelle selbst. Matthias Schrader spricht in diesem Zusammenhang gern von „Transformationalen Produkten“.

Auf der Ebene der Geschätsmodelle kann dieser Ansatz zu einer Gewinner-Strategie im digitalen Wettbewerb werden. Die Theorie der Netzwerkeffekte zeigt, dass es auch beim Lernen selbstverstärkende Effekte geben kann. Anhand datenbasierter Geschäftsmodelle sieht man diese direkten Netzwerkeffekte sehr deutlich. Während TomTom und andere Hersteller von Navigationsgeräten vor zehn Jahren noch den Markt beherrschten, sind sie heute fast völlig zurückgedrängt worden durch die Player der GAFA-Ökonomie mit ihren eigenen Kartendiensten, die Navigation als Zusatzfunktion mitführen. Der Lernende Prozess ist hier im Produkt und auch im Geschäftsmodelle eingebaut und sorgt über die Zeit zum Verdrängen des Wettbewerbers. Je mehr Teilnehmer ihre Standortkoordinaten mit Google teilen, desto exakter kann die Geschwindigkeit geschätzt werden und desto genauer sind Echtzeitprognosen über die tatsächlichen Ankunftszeit. interessant ist hier, dass nicht derjenige Player gewinnt, der das beste Oberflächendesign oder den besten Prognosealgorithmus entwickelt hat, sondern derjenige, der die meisten Teilnehmer hat. Die Prognosegenauigkeit für die Ankunftszeit wird dort am besten sein. Der Netzwerkeffekte wirkt also stärker als die Kernfunktionalität des Produktes, die austauschbar wird und als Commodity auch nicht mehr tarifierbar ist. Der Markt neigt zum Monopol, Differenzierung wird erschwert.

Im Deep-Value-Konzept gehen wir aber noch einen Schritt weiter: der lernende Prozess wird schließlich nicht nur dem Unternehmen bereitgestellt, sondern öffnet sich allen wertschöpfenden Partnern in einer Ecosystem-Logik. Während Google also bei der Ausprägung eines (zugegebenermaßen entscheidenden) Produktmerkmals, nämlich der Prognosegenauigkeit gewinnt, könnte das Wissen um neue Anforderungen gerade nicht vom Unternehmen selbst kommen, sondern aus dem Umfeld des Kunden.

Unternehmen, die Lernen effektiv in ihre Geschäftsmodelle und Produkte einbauen und es schaffen, einen sich selbst verstärkenden Mensch-Service-Loop zu schaffen, werden deutliche Wettbewerbsvorteile schaffen. Interessanterweise spielt Lernen in den heute populären Frameworks für Geschäftsmodellentwicklung (etwa der Business Model Canvas von Alexander Osterwalder) keine nennenswerte Rolle.

Quellen:

[1] zum Hoover Dam https://de.wikipedia.org/wiki/Hoover_Dam

Wishlist 0
Continue Shopping