Man kann sich bei der Flughöhe nicht richtig entscheiden. Also sollte man es lassen.
Als ich auf der sd worx Personaltagung über KI in der HR-Kommunikation sprechen durfte, hatte ich ein Problem, das man nicht mit einer besseren Agenda löst. Ein Großteil der Teilnehmenden kam aus dem Payroll-Umfeld: operativ, prozessnah, mit berechtigtem Fokus auf das, was morgen früh im Postfach liegt. Gleichzeitig saßen HR-Führungskräfte im Raum, die weniger an einzelnen Textbausteinen interessiert sind als an der Frage, was KI langfristig mit HR macht – und mit ihrer eigenen Rolle.
In solchen Formaten ist „die richtige Flughöhe“ eine freundliche Illusion. Wer versucht, beide Gruppen in einem einheitlichen Narrativ abzuholen, landet meist beim kleinsten gemeinsamen Nenner: genug Zukunft, um modern zu wirken, genug Praxis, um niemanden zu verlieren – und am Ende bleibt bei allen das Gefühl, dass das Entscheidende nicht ganz ausgesprochen wurde. Ich habe deshalb den Vortrag geteilt. Nicht, um es allen recht zu machen, sondern um beiden Perspektiven gerecht zu werden: erst der unmittelbare Nutzen ohne Agentenromantik, dann der Blick über den Tellerrand, der die Konsequenzen für HR nicht weichzeichnet.
Am Ende des Artikel steht daher das Video zur kompletten Keynote.
Nicht die Prozesse sind kaputt – wir erklären sie nur schlecht
In HR wird erstaunlich viel Energie in Prozesse investiert: Abläufe werden modelliert, Zuständigkeiten festgezurrt, Systeme integriert, Dokumente versioniert. Und trotzdem entstehen Rückfragen, Tickets, Eskalationen, Umwege und manuelle Sortierarbeit. Nicht, weil die Prozesse grundsätzlich falsch wären, sondern weil die Kommunikation dazu oft so wirkt, als müsse sie nur „informieren“, nicht „orientieren“.
Payroll ist dafür ein gutes Beispiel. Was fachlich korrekt formuliert ist, kann für Mitarbeitende dennoch unverständlich bleiben, weil es nicht in ihre Logik übersetzt wird. Mitarbeitende fragen nicht nach Paragrafen, sondern nach Auswirkungen. Sie wollen wissen, ob es sie betrifft, was sich konkret ändert, ob sie etwas tun müssen, und wie lange das gilt. Wenn diese Übersetzung fehlt, entsteht Unsicherheit. Und Unsicherheit sucht sich zuverlässig einen Kanal: Rückfragen.
Dasselbe Muster gilt in der Führungskommunikation. Vage Formulierungen funktionieren in Organisationen länger, als man glaubt – bis sie interpretiert werden. „Flexibler“, „bei Bedarf“, „wir sprechen das noch“: Das klingt kooperativ, ist aber in Wahrheit eine Einladung zur Projektion. Teams füllen Leerstellen nicht neutral, sondern mit ihren Erfahrungen, Befürchtungen und Gerüchten. Der Schaden entsteht nicht durch schlechte Absichten, sondern durch fehlende Präzision.
KI zwingt Teams zur Ehrlichkeit
Viele erwarten von KI vor allem bessere Formulierungen. Das ist verständlich, aber es trifft den Kern nicht. Der eigentliche Wert liegt darin, dass KI Klarheit erzwingt, bevor sie liefert. Wer der KI keinen Kontext gibt, bekommt generische Ergebnisse. Wer nicht entscheidet, was gelten soll, erhält sprachlich gut klingende Unverbindlichkeit. Und wer sich hinter „Bitte verständlich machen“ versteckt, wundert sich, dass am Ende etwas herauskommt, das zwar glatt ist, aber wirkungslos. Herumlamentieren funktioniert nicht mehr.
Das Entscheidende ist deshalb nicht der Ton, sondern die Struktur der Eingabe. Die Fragen, die in der Praxis alles ändern, sind unerquicklich konkret: Für wen ist die Botschaft gedacht? Was ist der Anlass – einmalig oder dauerhaft? Was gilt verbindlich – und was explizit nicht? Was soll jemand konkret tun, oder bewusst nicht tun? Wenn diese Punkte nicht beantwortet sind, entsteht nicht nur ein schlechter KI-Text, sondern auch eine schlechte menschliche Kommunikation. KI macht das lediglich sichtbar. Sie ist weniger Autor als Spiegel.
Genau darum funktioniert Herumlamentieren nicht. Unzufriedenheit ist kein Prompt. Unklarheit ist kein Input. KI zwingt Teams, sich selbst zuzuhören – und festzustellen, dass man oft gar nicht präzise gesagt hat, was man eigentlich will. Das ist unbequem. Aber es ist produktiv, weil es die Verantwortung dorthin zurückholt, wo sie hingehört: in die Entscheidung, nicht in die Formulierung.
Weniger Rückfragen sind kein Effizienzgewinn – sondern ein Führungsindikator
Wenn nach einer HR-Mail weniger Tickets auflaufen, wird das gern als Effizienzvorteil verbucht. Das stimmt, greift aber zu kurz. Weniger Rückfragen bedeuten vor allem weniger Unsicherheit. Und weniger Unsicherheit ist kein Nice-to-have, sondern eine der zentralen Voraussetzungen für stabile Prozesse und verlässliche Zusammenarbeit.
Kommunikation, die Rückfragen verhindert, ist nicht „schöner“. Sie ist klarer. Sie nimmt Interpretationsräume raus, benennt Grenzen, setzt Erwartungen, liefert Kontext. Das wirkt unspektakulär – und genau darin liegt ihre Qualität. Gute HR-Kommunikation macht sich nicht durch Applaus bemerkbar, sondern durch das Ausbleiben von Irritation.
KI hilft hier nicht, weil sie empathischer wäre als Menschen, sondern weil sie konsequent auf Vollständigkeit drängt. Sie lässt sich nicht auf das Spiel ein, bei dem man hofft, dass die anderen schon verstehen werden, was gemeint ist. Und sie macht schnell sichtbar, wo HR-Kommunikation eher aus Gewohnheit entsteht als aus Design.
Automatisierung ist einfach. Verantwortung nicht.
In der Diskussion über KI rutschen viele Organisationen in eine falsche Alternative: Entweder automatisieren wir, oder wir bleiben menschlich. In Wahrheit ist die Frage eine andere: Welche Teile sind regelbasiert und repetitiv, welche sind kontextreich und ambivalent? Je textlastiger und standardisierter ein Bereich ist, desto mehr lässt er sich automatisieren. Je stärker es um Konflikte, Empathie, Führung und situative Entscheidungen geht, desto mehr braucht es Menschen – aber mit besseren Werkzeugen.
Das ist der Punkt, an dem ich bewusst von Automatisierung zu Augmentation wechsle. KI soll nicht Verantwortung übernehmen, sondern Verantwortung besser möglich machen. Sie kann Routinekommunikation stabilisieren, Standardfälle sauber erklären und Prozesse konsistenter ausspielen. Und sie kann Führung unterstützen, indem sie Unklarheiten markiert, Varianten anbietet, Zielgruppen differenziert und die Konsequenzen von Formulierungen sichtbar macht.
Die Maschine ist damit nicht der Ersatz, sondern das Mischpult. Sie übernimmt nicht die Bühne – sie räumt die Nebengeräusche weg, damit Menschen ihre Arbeit besser machen können.
Je regelmäßiger, repetitive und textlästiger ein Bereich ist, desto höher der Automatisierungsgrad. Je mehr Führung, Empathie oder Konfliktnavigation nötig ist, desto höher der Augmentierungsanteil.
So können wir den Mensch-Maschine-Regler je nach Anwendungsfeld von KI im HR unterschiedlich einstellen.
Am stärksten wird sich sicherlich kurzfristig die operative Kommunikation verändern.
Ein hoher Grad an Augmentierung bedeutet dabei nicht, dass in diesen Bereichen nicht automatisiert wird. Jedoch ist der Mensch an vielen Stellen mit Entscheidungen oder nur als Kurator oder Überwacher relevant. In den Augmentationsbeispielen geht es also darum, neue Prozesse mit Mensch-Agenten-Kollaboration zu definieren.
Die Wertschöpfung von HR verlagert sich
Die Wertschöpfung von HR verlagert sich sich daher vermutlich stärker in Bereiche wie der Prozesskommunikation. Mittels eines KI-Begleiters (AI Compagnien) liesse sich die Vision einer ständigen individuellen Unterstützung jedes einzelnen Mitarbeiters am Arbeitsplatz verwirklichen. Derzeit versuchen die Mitarbeiter meist noch selbst, sich ihre eigenen Masterprompts für ihren Arbeitsbereich zusammenzustellen. Hier sollten in Zukunft speziell abgestimmte und die Compliance-Vorgaben erfüllende KI-Agenten den einzelnen Mitarbeiter unterstützen. An diesem Beispiel wird deutlich, dass der eigentliche Wert eben nicht in der Automatisierung, sondern in der Assistenz liegt.
HR wird nicht digitaler. HR wird architektonischer.
Der zweite Teil des Vortrags war der Blick über den Tellerrand: Was passiert, wenn KI nicht nur Texte glättet, sondern Kommunikation systemisch an Prozesse koppelt? Dann verändert sich HR nicht durch ein weiteres Tool, sondern durch eine Rollenverschiebung. In AI-nativen Organisationen führen Menschen weniger Prozesse aus. Sie gestalten Regeln, priorisieren, setzen Rahmen, klären Ambiguitäten und definieren Kontext.
HR muss sich selbst reflektieren und sich konkret fragen: Wollen wir nur inkrementelle Verbesserungen oder systemische Transformation?
Wenn wir wirklich HR systemisch transformieren wollen, bedeutet das für HR weniger Ausführung und mehr Architektur. Weniger Ticketbearbeitung, mehr Kommunikations- und Prozessdesign. Weniger Reaktivität, mehr Orchestrierung zwischen Mensch, System und – perspektivisch – Agenten. Das klingt groß, beginnt aber klein: mit der Entscheidung, ob man KI als Textmaschine nutzt oder als Strukturpartner.
Es geht also um mehr als Tools und auch um mehr als Produktivitätsvorteile, es geht darum, welche Wertschöpfung HR in einer humanzentrierten Welt intelligenter Agenten noch hat. Damit verbunden sind völlig unterschiedliche Ausgangsfragen an die Nutzung von KI:
In einer Agentic Organization gehen Mensch und Maschine eine Symbiose ein. Mitarbeitende arbeiten nicht mehr nur „mit Maschinen“, sondern sie orchestrieren und steuern aktiv Prozesse, die die Maschinen dann eigenständig ausführen.
Am Ende kann HR menschlicher erscheinen
Paradoxerweise kann diese Entwicklung HR menschlicher machen, nicht unmenschlicher. Denn wenn Routinekommunikation sauber läuft, entsteht Raum für echte Gespräche. Wenn Prozesse verständlich sind, sinkt die Reibung. Und wenn Kommunikation relevanter wird – zugeschnitten auf Rolle, Kontext und Historie – steigt nicht nur Effizienz, sondern auch wahrgenommene Wertschätzung. Aber das ist kein Automatismus. Es setzt voraus, dass HR Klarheit nicht delegiert, sondern gestaltet.
Am Ende geht es nicht um Technologie, sondern um Haltung
Ich habe den Vortrag geteilt, weil ich das Dilemma der Flughöhe nicht wegmoderieren wollte. Die operative Perspektive braucht sofort wirksame Ansätze ohne Zukunftsnebel. Die strategische Perspektive braucht eine ehrliche Antwort darauf, was KI langfristig mit HR macht. Beides gehört zusammen, weil es dieselbe Logik ist: Klarheit im Kleinen ist die Voraussetzung für Transformation im Großen.
KI ist damit kein Zukunftsthema mehr. Sie ist ein Verstärker. Sie verstärkt Unklarheit genauso wie Klarheit. Sie belohnt Struktur und entlarvt Ausflüchte. Und sie zwingt Teams dazu, etwas zu tun, was in vielen Organisationen überraschend selten passiert: sich festzulegen, bevor man kommuniziert.
Vielleicht ist das der unbequemste Nutzen von KI in HR. Und zugleich der wichtigste.






