Michael Witzenleiter und Jean-Luc Winkler holen in Folge 93 von „Das Gelbe vom AI“ Arne Tensfeldt ins Gespräch – mit einem klaren Blick auf KI im Agenturumfeld, fernab von Hype und „AI-first“-Reflexen. Die Episode wirkt wie ein Praxisprotokoll aus dem Maschinenraum: Delivery nach dem Deal Closing, Prozessklarheit vor Automatisierung und Teamaufbau unter echten Ressourcen-Constraints. Im Zentrum steht die Frage, wie Agenturen Effizienz so steigern, dass am Ende nicht mehr Tooling, sondern mehr Marge steht.
Agenten, aber ohne Magie: Hybrid-Team statt „vermenschlichter Orgchart“
Im Teamaufbau setzt Arne auf einen hybriden Ansatz aus Menschen und Automatisierung: seit Januar eine Kollegin in Festanstellung, dazu punktuell Freelancer – ergänzt um „fünf Agenten“, die über die Zeit für konkrete Use Cases entstanden sind. Gleichzeitig wird die verbreitete Vermenschlichung von KI-Agenten kritisch eingeordnet: kein „Agent berichtet an Vorgesetzten“-Narrativ, sondern eher „kleine Programme“ mit Prozeduren, Variablen und Conditions – nützlich, aber klar begrenzt. Das zahlt auf ein nüchternes Rollenbild ein: Gute Mitarbeitende leisten mehr als nur Task-Abarbeitung; Agenten liefern heute vor allem Effizienzgewinne bei klar umrissenen Aufgaben.
Ein praktischer Hebel im Aufbau: früh eine Werkstudentenrolle für Prozessautomatisierung (mit und ohne KI) – inklusive investitionsintensivem Onboarding, Briefings und Kontextaufbau. Der Effekt nach einigen Monaten: kürzere Briefings, schnelleres Kontextverständnis, schnellere Resultate – und vor allem weniger Gründer-Bottleneck, mehr Enablement. Zeitaufwand wird dabei nicht nur als ROI-Rechnung (Amortisation pro wiederholter Aufgabe) verstanden, sondern auch als Machbarkeitsstudie und „Eat your own dog food“: interne Lösungen werden zu Bausteinen eines späteren „Lösungsregals“ für Beratungsprojekte – potenziell mit produktartigem Charakter.
Tooling & Use Cases: systemagnostisch, kommunikativ, prozessnah
Toolseitig bleibt Arne bewusst adaptiv und „tool-agnostisch“ – passend zu einer Lage, in der sich Plattformen, Features und Modelle schnell verschieben. Im Alltag stehen mehrere LLMs parallel: ChatGPT (Custom GPTs/Projects), Gemini (durch Google-Stack wie Gmail/Calendar naheliegend) und Claude; Prompts laufen teils simultan in drei Tools, um Ergebnisqualität zu vergleichen. Für Automatisierung werden Zapier, Make und n8n getestet – inklusive lokaler Installationen, wenn Datenschutz oder sensible Daten gegen „alles in die Cloud“ sprechen.
Ein zentraler Use Case ist Teamkommunikation in Remote-/Hybrid-Setups – ein Bereich, der laut Arne in nahezu keiner Organisation „einfach läuft“. Die Lösung: eine digitale Team-Assistenz, die auf Events reagiert und Updates automatisch in Slack verteilt. Grundlage ist eine früh begonnene Prozessinventarisierung (inkl. Benennung, Bestandteilen, Beschreibung), auch wenn das bei kleiner Teamgröße bewusst „overengineered“ wirkt. Ein konkretes Muster: Bei Prozessänderungen reicht eine Checkbox im System (Notion); am Folgetag generiert die KI eine kurze, menschenlesbare Summary und postet sie samt Link in einen Slack-Update-Channel. Ergebnis ist ein kontinuierlicher Strom kleiner Updates statt 5–10 Minuten Status-„Übrigens“-Kommunikation im Stand-up.
Ein zweiter, besonders greifbarer Block: Onboarding und Wissensmanagement. Neben einer visuellen Onboarding-Journey in Miro (inkl. interaktiver Elemente, Mini-Videos und Selbstcheck-Aufgaben) existiert ein Wissensagent („Paul“), technisch auf Vektordatenbank-Basis: FAQs und Onboarding-Wissen werden indiziert, Fragen können direkt in Slack gestellt werden. Kann der Agent nicht beantworten, landet die offene Frage in einem separaten Slack-Channel; die Antwort wird im Thread gegeben, quittiert und als neues Wissens-Snippet übernommen – inklusive Timestamp, um später die Aktualität systematisch anzustoßen (älteste Snippets prüfen, Datum aktualisieren). Noch ist das Team klein, der Skalierungshebel kommt mit jeder zusätzlichen Person – aber das Modell adressiert genau das typische Problem: Wissen „wabert“ überall, während der Zugang über klassische Wikis oft scheitert.
Wiederkehrende Kundenhebel: Standards automatisieren, Individualität orchestrieren
Auf Kundenseite tauchen Use Cases dort auf, wo Projekte zu viel Handarbeit erzeugen, obwohl ein großer Teil standardisierbar ist. Beispiel aus laufender Praxis: Projekt-Setups mit agilen Tools wie Jira/Confluence, in denen Tickets manuell angelegt werden – trotz hoher Wiederholbarkeit. Arnes Beobachtung: In größeren Umsetzungsprojekten sind oft 75–80% Standard, der Rest individualisiert. In einem Kontext spricht er von 1.400 Tickets, die über die Zeit entstanden sind – und genau dort liegt Automatisierungspotenzial: Standardblöcke per Knopfdruck erzeugen, während KI helfen kann, die letzten 25% Individualität strukturiert zu ergänzen (statt alles manuell zu schreiben). Der rote Faden bleibt: erst Standards und Mechaniken verstehen, dann automatisieren – damit KI nicht „kreativ“ wird, wo eigentlich deterministische Wiederholbarkeit gefragt ist.
Glaskugel: Zwei Realitäten, ein Markt
Zum Ausblick gehört weniger Modell-Roadmap als Marktbeobachtung: Zwischen KI-Bubble und operativer Realität klafft eine Lücke, die sogar innerhalb derselben Firma existieren kann. Arne beschreibt es als Spannungsfeld von „keine Berührung“ bis „totale Durchdringung“ – mit Teams, die in identischen Rollen völlig unterschiedlich arbeiten (die einen nutzen KI täglich, die anderen nicht einmal Spracheingabe). Das erklärt auch, warum Lösungen wie KI-Agenten in manchen Umfeldern schon Org-Design-Fragen auslösen, während anderswo noch Termine per Telefon statt per Calendly koordiniert werden. Für Agenturen und Beratungen ist genau diese Gleichzeitigkeit der Reifegrade der Arbeitsraum – und die Chance, Wirkung (Marge, Delivery-Qualität, Skalierbarkeit) über saubere Prozessarbeit und passende Automatisierung zu erzeugen.
🎙️ Folge in kompletter Länge anhören auf der Podcast Plattfrom deiner Wahl.

