Michael Witzenleiter und Jean-Luc Winkler nehmen in Folge 98 von „Das Gelbe vom AI“ Kurs auf die operative Realität der KI-Transformation: weniger Tool-Hype, mehr Struktur. Zu Gast ist Kiki Wöhl, Co-Founderin und CEO der DECAID Academy, die aus Beratungspraxis heraus zeigt, wie Enablement, Governance und Adoption zusammenkommen – und warum vieles nach dem ersten Workshop wieder versandet.
Kiki Wöhl ist Serial-Entrepreneurin, Forbes 30 Under 30, und arbeitet seit rund drei Jahren mit der DECAID Academy daran, Teams durch KI-Transformation zu führen. Im Gespräch wird KI-Enablement als Change-Management-Prozess eingeordnet: Nicht die einzelne Schulung entscheidet, sondern ein Gerüst aus Strategie, Standard-Toolstack, Pflicht-Basisskills und anschließender produktiver Teamnutzung. Zentral ist die Beobachtung, dass Unternehmen häufig direkt in „Phase 2“ springen (Workshop/Training/Plattform) und dann Momentum entsteht – aber ohne Leitplanken und interne Strukturen nach wenigen Wochen wieder abfällt. Die Folge skizziert den praktischen Einstieg über einen AI-Readiness-Check, der Toolnutzung, Intensität und Reifegrad erhebt und daraus Handlungsempfehlungen ableitet. Als wiederkehrendes Motiv: Adoption entsteht nicht durch Bereitstellen von Lerninhalten, sondern durch messbare Nutzungsroutinen und eine Organisation, die KI sichtbar priorisiert.
Drei-Phasen-Modell: Von Strategie & Toolfrage zur produktiven Nutzung
Die DECAID-Perspektive strukturiert KI-Nutzung in drei Phasen, mit einem klaren Warnhinweis: Viele Unternehmen überspringen Phase 1 und wundern sich, dass Phase 2 nicht trägt. Phase 1 umfasst KI-Strategie und Toolentscheidung: Wo soll das Unternehmen „bis Ende des Jahres“ stehen – und mit welchem standardisierten Toolstack, statt Tool-Wildwuchs über ChatGPT, Claude, Copilot und diverse Bildmodelle. Phase 2 ist das Enablement entlang des tatsächlich genutzten Tools: Statt breiter „KI-Grundlagen“ steht der Tool-Führerschein im Vordergrund, also eine verpflichtende Basisschulung, die ein einheitliches Skill-Level schafft und direkt in den Arbeitsalltag übersetzbar ist. Der Führerschein wird als operativ realistisch beschrieben: meist 5–8 Stunden Umfang, typischerweise über ca. sechs Wochen, weil Mitarbeitende im Schnitt etwa eine Stunde pro Woche aktiv lernen; mit steigender Unternehmensgröße verlangsamt sich Rollout (ab ca. 100–300 Mitarbeitenden deutlich). Phase 3 zielt auf produktive Nutzung und Organisationsdesign: Prozesse nicht „mit KI bepflastern“, sondern KI-nativ neu denken – inklusive Kontext-Strukturen, die Agenten/Workflows überhaupt erst möglich machen.
Taskforce, Formate, Mandat: Wie Adoption nicht im Sand verläuft
Als wirksamster Hebel gegen das typische „Workshop → Hype → vier Wochen später vergessen“ wird eine cross-funktionale KI-Taskforce beschrieben: ein kleines Team aus intrinsisch motivierten Champions, häufig nicht aus Führung, aber mit Pioniercharakter und hoher Experimentierfreude. Rekrutiert wird bewusst aus den „obersten 10–20 %“, während die breite Masse oft 60–70 % ausmacht; entscheidend sei weniger Alter oder Rolle als Haltung und Lerntrieb. Damit die Champions nicht isoliert bleiben, braucht es ein Mandat, sichtbar getriebene Management-Kommunikation und wiederkehrende Formate, die Nutzung normalisieren. Genannt werden u. a. Kickoffs, AI-Roadshows, Lunch & Learns, Best-Practice-Sharing und der Aufbau eines internen Knowledge Hubs. Besonders betont wird Retention über konstante Touchpoints: KI muss in Town Halls/All-Hands/Team-Meetings wiederholt mit Status, Zielen und Fortschritt auftauchen – nicht einmalig. In der dritten Phase wird die Taskforce zum Motor für Prozessneudesign, etwa in Agenturen: Kundenbriefings werden nicht nur „ins LLM kopiert“, sondern in strukturierte Kontextdatenbanken überführt, auf denen Assistenten gezielt arbeiten können.
- Pragmatischer Startpunkt für Pilot-Use-Cases: viel verfügbarer Kontext + hoher Zeitaufwand/hohe Frequenz (nicht zwingend die komplexesten Fälle).
Schatten-KI & Governance: Standardisierter Toolstack statt isolierter Einzelinseln
Schatten-KI wird als spürbar verschärftes Thema der letzten Monate beschrieben: Sobald KI als wichtig akzeptiert ist, wächst der Wildwuchs automatisch – mit Synergieverlusten, fehlender Teamnutzung und Risiken durch nicht abgesicherte Accounts, in denen vertrauliche Daten landen können. Gegenmittel ist kein Verbotsreflex, sondern eine klare Toolstack-Entscheidung plus Governance: Welche Tools sind erlaubt, welche nicht, und welche Regeln gelten für Daten und Nutzung. Kiki Wöhl beschreibt die Toolauswahl als weniger komplex als oft angenommen: Für „98 %“ der Kunden lasse sich der LLM-Bereich auf wenige Optionen eingrenzen (Copilot, Claude, ChatGPT oder LLM-Wrapper wie LangDoc/TeamGPT). Der Nutzen eines standardisierten Stacks liegt in der Rückkehr von isolierter Nutzung zur Teamnutzung – und damit in skalierbaren Synergien. Als Praxisbeispiel wird der eigene Stack bei DECAID genannt: G Suite plus LangDoc; Meetings werden mit Gemini transkribiert, zentral im Drive abgelegt und über Automatisierung/Nomenklatur (bei DECAID z. B. Emojis) in passende Ordner verschoben, sodass Agenten und Workflows auf Transkripte zugreifen können. Ergebnis ist u. a. eine regelmäßige Management-Zusammenfassung („Freitagnachmittag: was diese Woche passiert ist“) auf Basis konsolidierten Kontexts.
Messbarkeit & ROI: Erst Nutzungstiefe, dann Prozess-Portfolio
ROI wird bewusst entromantisiert: In Euro sei der Effekt gerade am Anfang schwer sauber zu beziffern, weil KI oft nicht „Arbeitsstunden reduziert“, sondern Output pro Ressource erhöht – und sich P&L-Effekte zeitverzögert zeigen. Als erste belastbare Metrik wird Nutzungsintensität genannt, idealerweise gestützt durch Analytics (insbesondere bei LLM-Wrappern): Wer nutzt wie oft, wie regelmäßig, wie breit im Unternehmen. Ein konkretes Langzeitbeispiel aus der Begleitung eines größeren Mittelständlers (über 600 Mitarbeitende) zeigt nach 9–10 Monaten einen hohen Reifegrad: rund 85 % in nahezu täglicher Nutzung, der Rest mindestens wöchentlich. Erst danach wird die nächste Mess-Ebene relevant: Wie viele Kernprozesse laufen KI-nativ auf dem standardisierten Toolstack, inklusive sauberer Kontextablage (z. B. Meeting-Transkripte, Kundendatenbanken). Gleichzeitig wird klar: Große Sprünge (z. B. 30–40 % Einsparungen) sind möglich, aber eher bei Teams, die über Jahre sehr intensiv transformieren – etwa bei produktionsnahen Use Cases wie automatisierten Produktfotoshootings durch Modelltraining.

