KI & CX: Zwei Perspektiven, ein Denkrahmen

Mein aktueller Blick auf KI im CX-Kontext. Ein Arbeitsmodell zum Mitdenken.

KI ist gerade überall, und in CX ist die Versuchung groß, direkt über Tools, Bots oder Automatisierung zu sprechen. Ich habe einen anderen Einstieg: Ich sortiere KI & CX als Denkfeld, aus zwei Perspektiven, was ändert sich in der Experience für Kund:innen, und was ändert sich in der CX-Arbeit.

Die Journeys hierzu sind vielfältig, von Marketing über Sales, Onboarding, Kundenservice, Retention und Produktnutzung. Also überall dort, wo Menschen Orientierung brauchen, Entscheidungen treffen oder Vertrauen aufbauen.

Diese Seite ist keine ultimative Anleitung. Es ist mein aktueller Stand, mit Thesen und Leitfragen, die ich laufend ergänze. Wenn du Beispiele, Widerspruch oder Quellen hast, freue ich mich über Austausch.

Perspektive 1: Wie verändert KI die Experience vor Kundin/Kunde?

Wenn wir über „KI verbessert CX“ sprechen, klingt das oft nach schnellerem Support, besseren Antworten oder neuen Self-Service-Kanälen. Das kann stimmen, aber es greift für mich zu kurz. Interessant wird es dort, wo KI in Journeys wirkt. Also dort, wo sie Orientierung gibt, Entscheidungen erleichtert, Reibung reduziert, oder sogar hilft, Probleme zu verhindern, bevor sie entstehen.

Ich unterscheide dabei grob zwei Ebenen. Die erste Ebene ist Optimierung, schneller, günstiger, rund um die Uhr. Die zweite Ebene ist Veränderung, proaktive Hilfe, bessere Kontextnutzung, intelligentere Übergaben, neue Formen von Unterstützung. Diese zweite Ebene ist meist der größere Hebel, aber sie ist auch riskanter, weil sie schnell in falsche Zusagen oder unerwünschte Eingriffe kippen kann.

Deshalb starte ich in diesem Teil nicht mit Technologien, sondern mit Wertlogik. Welche Kontakte sollen eigentlich verschwinden, weil sie nur Symptom sind? Welche Kontakte verdienen bewusst menschliche Aufmerksamkeit? Und wo ist Automatisierung sinnvoll, weil sie verlässlich ist und Kund:innen wirklich entlastet? Damit das nicht zu service-lastig wird, denke ich in diesem Teil bewusst end-to-end: von der ersten Orientierung über Kauf und Onboarding bis zur Nutzung und Unterstützung. In jeder Phase sieht „gute Experience“ anders aus, und entsprechend unterscheiden sich auch die sinnvollen KI-Hebel.

Die Abschnitte darunter sind keine fertige Methode. Es sind Beobachtungen und Thesen, plus Leitfragen, die ich aktuell für die entscheidenden halte. Wenn du andere Beispiele kennst, oder wenn du widersprichst, umso besser. Genau daraus lernt dieses Denkfeld.

Wertlogik: Nicht „wo automatisieren“, sondern „welche Experience wollen wir gestalten“

Beobachtung: Viele KI-Initiativen starten bei Tools und Features. Die Journey-Probleme werden dann im Nachhinein passend gemacht.

These: KI wirkt erst, wenn klar ist, welche Kontakte wir vermeiden, vereinfachen, automatisieren oder bewusst menschlich halten.

KI ist ein Verstärker. Wenn du schlechte Journeys automatisierst, skalierst du schlechte Experience. Deshalb hilft mir diese Wertfrage: Was ist in diesem Kontakt eigentlich der Nutzen, für Kund:innen, und für das Unternehmen? Und was ist nur Reibung, die gar nicht entstehen sollte?

Je nach Journey-Phase ist der Wertbeitrag unterschiedlich. Im Marketing geht es oft um Relevanz und Orientierung, im Sales um Entscheidungssicherheit und Beratung, im Onboarding um Aktivierung ohne Frust, in der Produktnutzung um erfolgreiche Aufgaben und weniger Fehler, und im Service um Lösung, Vertrauen und saubere Recovery. Die gleiche KI kann in jedem dieser Kontexte helfen, aber die Regeln für Risiko, Tonalität und Übergaben sind nicht identisch.

Für mich ist das auch eine gute Stelle, um über Risiko zu sprechen. Nicht als Angstthema, sondern als Designparameter. Je nachdem, wie kritisch ein Fehler wäre, ergibt sich fast automatisch, wie viel Autonomie KI in einem Schritt bekommen darf, und wie stark die Übergabe zum Menschen gestaltet sein muss.

Leitfragen

  • Welche Kontaktgründe sind Symptome, und sollten eigentlich verschwinden?
  • Wo bringt Automatisierung oder Assistenz echten Nutzen, ohne Vertrauen zu riskieren?
  • Wo ist menschlicher Kontakt ein Werttreiber, zum Beispiel bei Komplexität oder Emotion?
  • Welche Fehler wären für Kund:innen oder Unternehmen wirklich kritisch?

Proaktivität: Wenn KI nicht nur antwortet, sondern Reibung verhindert

Beobachtung: Viel KI im CX-Kontext bleibt reaktiv. Es geht darum, Anfragen abzufangen oder schneller zu beantworten.

These: Der stärkere Experience-Effekt entsteht dort, wo KI proaktiv wird, und Journey-Reibung verhindert, bevor sie zum Kontakt wird.

Proaktive Experience klingt für viele nach Personalisierung. Für mich ist es eher Journey-Orchestrierung. Du erkennst, dass etwas wahrscheinlich schiefgeht, und greifst im richtigen Moment mit der richtigen Hilfe ein. Das kann eine Information sein, eine Empfehlung, ein vorbereiteter Schritt, oder in manchen Fällen auch eine Ausführung.

Trigger können dabei sehr unterschiedlich sein. Ein abgebrochener Checkout, zögerliche Auswahl im Tarifvergleich, ein stockendes Onboarding, eine wiederholte Fehlbedienung im Produkt, oder ein Statuswechsel, der Fragen auslöst. Proaktivität heißt dann nicht „mehr Nachrichten“, sondern genau die Intervention, die im Moment wirklich hilft, und die man auch wieder abwählen kann.

Leitfragen

Sobald KI „handelt“, wird das Thema Autonomie wichtig. Hier passt der Agenten-Gedanke gut rein, nicht als Hype, sondern als klare Frage: Was darf automatisch passieren, was braucht Freigaben, und wie wird ein Mensch sinnvoll eingebunden? Human in the loop ist dann kein Plan B, sondern ein bewusstes Designprinzip.

  • Welche Trigger zeigen zuverlässig, dass ein Kunde gleich hängen bleibt?
  • Welche proaktiven Maßnahmen sind hilfreich, und welche nerven?
  • Wer entscheidet, was proaktiv ausgelöst werden darf, und wie wird das überprüft?
  • Wo braucht es Freigaben oder menschliche Kontrolle, bevor etwas ausgeführt wird?

Vertrauen: Gute Übergaben, klare Grenzen, sauberes Recovery

Beobachtung: In der Experience wird KI oft daran gemessen, wie „smart“ sie klingt.

These: Entscheidend ist Verlässlichkeit. Also klare Grenzen, gute Übergaben zum Menschen, und sauberes Recovery bei Fehlern.

Wenn KI für Kund:innen sichtbar wird, steigt die Erwartung, dass Antworten stimmen, und dass Zusagen gelten. Gleichzeitig bleibt KI fehleranfällig, manchmal subtil. Widersprüche, falsche Kontexte, zu selbstbewusste Antworten, oder ein System, das keinen klaren Ausweg bietet. Das gilt nicht nur im Support. Auch im Sales kann eine falsche Zusage, ein unpassender Rat oder ein irreführender Vergleich Vertrauen kosten. Und im Produkt wirkt KI nur dann positiv, wenn sie zuverlässig ist, Grenzen kennt und im Zweifel einen sicheren Pfad anbietet, statt sich „durchzubluffen“.

Leitfragen

Darum gehört Handover-Design für mich direkt in die Experience-Perspektive. Ein guter Übergang sorgt dafür, dass Kund:innen nicht wieder bei null starten. Und Recovery sorgt dafür, dass Fehler nicht nur „passieren“, sondern sauber korrigiert werden, nachvollziehbar, schnell und ohne Gesichtsverlust auf beiden Seiten.

  • Wie sieht der Exit zum Menschen aus, ohne dass Kund:innen wieder bei null anfangen?
  • Welche Zusagen darf KI niemals machen?
  • Wie korrigiert ihr Fehler sichtbar, schnell, nachvollziehbar?
  • Wie vermeidet ihr Schleifen, Widersprüche und unklare Zuständigkeiten?

Perspektive 2: Wie verändert KI die CX-Arbeit in der Organisation?

Auf der Innenseite von CX ist KI vor allem eine Veränderung der Arbeit. Sie verschiebt Aufgaben, Verantwortlichkeiten und die Art, wie Teams zusammenarbeiten. Wer KI in CX einführt, baut nicht nur eine neue Oberfläche. Es verändert Prozesse, Rollen und Routinen, von Knowledge über Qualitätssicherung bis zur Zusammenarbeit zwischen CX, IT, Data und Legal. Diese Veränderungen betreffen nicht nur Service-Teams, sondern auch Marketing-, Sales-, Produkt- und Research-Teams, überall dort, wo CX-Arbeit passiert.

Viele Organisationen starten mit einem Pilot, und das ist sinnvoll. Gleichzeitig ist es genau der Punkt, an dem viele steckenbleiben. Nicht, weil die Technologie nicht funktioniert, sondern weil die Grundlagen fehlen. Wissen ist nicht konsistent, Entscheidungen sind nicht geregelt, und es gibt keine gemeinsame Messlogik, die zeigt, ob KI wirklich hilft oder nur Arbeit verlagert.

Darum lohnt es sich, KI als Operating-Model-Thema zu betrachten. Wer trägt Verantwortung für Ergebnisse, wer darf welche Entscheidungen automatisieren, wie sehen Guardrails aus, wie läuft Monitoring, und wie wird aus Fehlern systematisch gelernt? Gerade wenn KI oder Agenten Aufgaben ausführen, ist diese Klärung kein Luxus, sondern Voraussetzung für Sicherheit und Skalierung.

Auch dieser Teil ist kein fertiges Rezept, sondern ein Ordnungsrahmen. Ich nutze ihn, um Diskussionen zu strukturieren, Risiken sichtbar zu machen, und nächste Lernschritte zu identifizieren. Wenn du dabei an anderen Stellen ansetzt, oder andere Prioritäten hast, lass uns das gern abgleichen.

Operating Model: Verantwortlichkeiten, Entscheidungsrechte, Taktung

Beobachtung: Ohne Operating Model bleiben KI-Initiativen oft Piloten, die nicht skalieren, oder Inseln, die später schwer integrierbar sind.

These: In CX entscheidet das Zusammenspiel aus Menschen, Regeln, Wissen und Messung mehr als das einzelne Tool.

Für mich ist das Operating Model die Antwort auf eine sehr praktische Frage: Wer macht was, mit welchen Rechten, und nach welchen Regeln? Und wie wird gelernt, nicht einmal im Jahr, sondern regelmäßig, wie in einem Betriebsmodus.

Leitfragen

Wenn Agenten Aufgaben ausführen, wird das noch wichtiger. Dann brauchst du Autonomie-Stufen und klare Human-in-the-loop-Regeln. Nicht, um alles zu bremsen, sondern um Risiken zu kontrollieren und Vertrauen intern wie extern zu sichern.

  • Wer trägt Ergebnisverantwortung, fachlich und technisch?
  • Welche Entscheidungen dürfen automatisiert werden, und wo ist Human-in-the-loop Pflicht?
  • Wie laufen Change und Lernen, im Wochen- und Quartalsrhythmus?
  • Wie verhindert ihr Wildwuchs, Schatten-KI und widersprüchliche Regeln?

Wissen: Der Engpass, der über Erfolg oder Frust entscheidet

Beobachtung: GenAI scheitert im Service selten am Modell, oft am Wissen.

These: Knowledge ist ein operatives System, nicht nur Dokumentation.

Wissen ist in vielen Organisationen verteilt. Ein Teil steckt in Köpfen, ein Teil in Tickets, ein Teil in Wikis, ein Teil in PDFs, und oft ist unklar, was überhaupt „gilt“. KI macht diese Brüche sichtbarer, weil sie schnell Antworten erzeugt, auch wenn die Grundlage unklar oder widersprüchlich ist.

Leitfragen

Darum finde ich das Thema Knowledge Ownership so spannend. Nicht als Dokumentationsprojekt, sondern als Grundlage für verlässliche Experience. Wer verantwortet Inhalte, wie werden sie gepflegt, wie werden Quellen sichtbar, und wie hängt Wissen an Journeys und Policies?

  • Wo liegt euer Wissen heute, und wie fragmentiert ist es?
  • Wer ist pro Thema verantwortlich für Aktualität und Konsistenz?
  • Wie stellt ihr sicher, dass Antworten belegbar sind, nicht geraten?
  • Welche Wissensformate braucht ihr für Journeys, nicht nur für Produkte?

Rollen und Skills: Von Routine zu Orchestrierung und Qualität

Beobachtung: KI reduziert Routine, aber sie erzeugt neue Arbeit rund um Qualität, Ausnahmen und Steuerung.

These: Der Produktivitätsgewinn kommt, wenn Menschen besser werden, mit KI zu arbeiten, und wenn Rollen dafür klar sind.

Viele Diskussionen hängen bei Prompting. Das ist okay als Einstieg, aber für CX ist es selten der Kern. Wichtiger sind Rollen, die entscheiden, welche Antworten „gültig“ sind, wie Übergaben funktionieren, wie Qualität gemessen wird, und wie sich das System verbessert.

Leitfragen

Ich finde das auch aus einer Journey-Team-Perspektive spannend. Denn sobald KI in Journeys eingreift, werden Schnittstellen wichtiger. CX, IT, Data, Legal, Ops, die müssen nicht perfekt harmonieren, aber sie brauchen einen gemeinsamen Takt und klare Verantwortlichkeiten.

  • Welche Rollen fehlen euch heute, damit KI sicher und wirksam wird?
  • Welche Skills müssen CX-Teams konkret aufbauen, jenseits von Tool-Training?
  • Wie organisiert ihr Enablement, damit es nicht bei Einzelwissen bleibt?
  • Wie arbeitet ihr crossfunktional, ohne dass es zu langsam wird?

Messung und Qualität: CX-KPIs plus KI-Qualität, sonst steuerst du blind

Beobachtung: Viele KI-Setups messen zuerst Deflection oder Kosten.

These: Das reicht nicht, weil es nichts über Experience, Verlässlichkeit und Risiko sagt.

Für mich gehört die Messlogik immer in zwei Schichten. Erstens klassische CX-Kennzahlen, also ob Kund:innen wirklich besser durch die Journey kommen. Zweitens AI-Qualitätskennzahlen, die zeigen, ob Antworten belegbar sind, wie oft Fehler passieren, wie gut Eskalationen laufen, und wie stabil das Ganze im Betrieb ist.

Leitfragen

Erst wenn beide zusammenkommen, kann man seriös entscheiden: Was skalieren wir, was bauen wir um, und wo ziehen wir Grenzen? Und man kann auch verhindern, dass Teams unbewusst auf die falschen Ziele optimieren.

  • Welche CX-Kennzahlen zeigen echten Kundennutzen in euren Journeys?
  • Welche AI-Quality-Kennzahlen zeigen Zuverlässigkeit und Risiko?
  • Wie sieht ein Monitoring-Rhythmus aus, inklusive Incident-Log und Verbesserungs-Backlog?
  • Wie verhindert ihr KPI-Gaming, zum Beispiel Deflection um jeden Preis?

KI im Research: Von Auswertung zu kontinuierlichem Sensemaking

Beobachtung: KI wird im Research oft entweder überschätzt („macht Research automatisch“) oder unterschätzt („Spielerei“). In der Praxis verschiebt sie vor allem Arbeit. Weniger Zeit für Fleißaufgaben, mehr Zeit für Einordnung, Entscheidungen und Anschlussfähigkeit.

These: Der größte Hebel liegt nicht darin, dass KI Interviews „ersetzt“. Der Hebel liegt darin, dass Research kontinuierlicher und anschlussfähiger wird. KI kann helfen, Material schneller zu sichten, Muster zu clustern, Hypothesen zu formulieren, Varianten von Insights zu prüfen, und Ergebnisse besser in Journey-Entscheidungen, Backlogs und Knowledge zu überführen.

Gleichzeitig steigt das Risiko von falscher Sicherheit. Zusammenfassungen können plausibel klingen und trotzdem falsch sein. Clustering kann Nuancen plattbügeln. Und sobald sensible Daten im Spiel sind, wird Datenschutz zur Designbedingung. Für mich ist KI im Research deshalb kein Tool-Thema, sondern eine Kombination aus Research Ops, Qualitätslogik und klaren Regeln, was geprüft werden muss.

Ich sehe KI im Research als Chance, das klassische Muster zu durchbrechen, selten große Studien, viele Folien, wenig Wirkung. Wenn du stattdessen häufiger kleine Schleifen drehst, und die Ergebnisse sauber in Journeys zurückkoppelst, kann KI ein echter Beschleuniger sein, ohne dass du Research entwertest.

Leitfragen (Bullets)

  • Wo spart KI im Research wirklich Zeit, und wo erzeugt sie nur scheinbare Sicherheit?
  • Welche Schritte müssen immer „human verified“ sein, bevor ein Insight genutzt wird?
  • Wie landen KI-gestützte Insights verlässlich in Journeys, Backlogs und Knowledge, nicht nur in Slides?
  • Welche Daten dürfen genutzt werden, und wie schützt ihr sensible Inhalte, zum Beispiel Transkripte?

KI & CX als Denkfeld, nicht als fertige Anleitung

Ich sehe dieses Thema gerade als Feld, das sich schnell bewegt und in dem sich viel erst in der Praxis sortieren muss. Deshalb ist diese Seite keine allgemeingültige Einführung in KI, und auch kein fertiges Playbook. Es ist mein aktueller Versuch, Diskussionen rund um KI so zu ordnen, dass sie aus einer CX- und Journey-Perspektive handhabbar werden.

Die Thesen und Leitfragen hier sind bewusst so formuliert, dass man daran weiterdenken kann. Manche Punkte werden sich bestätigen, andere werden sich relativieren. Genau das ist für mich der Reiz: zu verstehen, was in welchen Kontexten wirklich funktioniert, und was nur auf dem Papier gut klingt. Wenn du eigene Erfahrungen, gute Beispiele oder auch Widerspruch hast, freue ich mich über Austausch. Ich sammele Muster, Quellen und Praxisbeobachtungen, und entwickle diese Seite iterativ weiter.

  • Beispiele für gelungene KI-Unterstützung entlang einer Journey, inklusive Handover
  • Learnings zu Knowledge, Messung und Qualitätsmonitoring in echten Setups
  • Gegenbeispiele, wo es nicht funktioniert hat, und warum

Austausch zu KI & CX

Wenn du Lust hast, Gedanken, Beispiele oder Quellen zu teilen, schreib mir gern. Ich freue mich besonders über konkrete Situationen aus Journeys oder deinem CX-Alltag, egal ob es gut funktioniert hat oder gescheitert ist.
Vielen Dank für die Kontaktaufnahme, ich melde mich baldmöglichst bei dir.
Ups, da ist etwas schiefgegangen - probiere es bitte noch einmal.