Die neue News-Folge von Michael Witzenleiter und Jean-Luc Winkler wirkt wie ein schneller Lagebericht aus einem Markt, der sich gerade neu sortiert: Personal, Plattformen, Politik und Profitabilität greifen sichtbar ineinander. Zwischen Agentic-AI-Offensiven, Copyright-Klagen und staatlichen KI-Programmen entsteht ein Muster: Wer die Systeme und die Distribution kontrolliert, gewinnt Tempo.
Die Zahl der Woche lautet 9 von 11: So viele Co-Founder haben xAI inzwischen verlassen, übrig sind nur noch 2 von ursprünglich 11 Gründern. Gleichzeitig gehen mehrere Senior Engineers, während intern umgebaut wird, Projekte gestoppt werden und Führungskräfte von Tesla und SpaceX eingreifen. Brisant daran ist weniger die Schlagzeile als das Signal: Selbst mit Kapital und Rechenleistung wird es kritisch, wenn im Kernbereich – hier Coding-Tools gegen OpenAI und Anthropic – Geschwindigkeit und Talent fehlen.
Nvidia setzt auf Agentic AI: NemoClaw, OpenClaw und die nächste Software-Welle
Nvidia positioniert sich mit NemoClaw als mehr als nur Chip-Lieferant: Eine Plattform, die OpenClaw-Agenten mit Nvidias Nemotron-Modellen verbindet und autonome, „selbst-evolvierende“ Agenten ermöglichen soll. CEO Jensen Huang rahmt das als „nächste Renaissance der Software“ – und macht klar, dass Agenten als nächste Plattform nach LLMs gedacht sind, weil sie nicht nur antworten, sondern handeln. Zentral ist dabei die Open-Source-Dynamik um OpenClaw, die sich extrem schnell auf GitHub verbreitet und zum Ökosystem-Kern für neue Agenten-Anwendungen werden soll. Nvidia verstärkt diesen Sog, indem zusätzlich OpenShell integriert wird – ein Open-Source-Stack mit eingebauten Sicherheits- und Datenschutzmechanismen, der Agenten „enterprise-tauglicher“ machen soll. Guardrails rücken damit in den Mittelpunkt, weil Agenten durch mehr Handlungsspielraum auch mehr Risiko mitbringen als klassische Chat-Interfaces. Gleichzeitig läuft der Ausbau in Richtung Full-Stack: Vom Modell über Plattform und Tools bis zur Infrastruktur entsteht ein Angebot, das Adoption beschleunigt und indirekt Hardware-Nachfrage erzeugt. Das wird durch neue Infrastruktur-Botschaften flankiert, etwa die Vera Rubin Plattform als Multi-Chip-System für agentische Workloads – denn Agenten sind „token-hungrig“ und treiben Inference-Last. Unterm Strich entsteht ein Geschäftsmodell, das mit jeder zusätzlichen Komplexität wächst: mehr Agenten bedeutet mehr Sicherheit, mehr Orchestrierung, mehr Monitoring – und damit mehr Umsatzchancen entlang der gesamten Wertschöpfung.
Big Tech im Faktencheck: OpenAI unter Druck, Anthropic im Konflikt, Mistral & Meta im Umbau, Staat als KI-Kunde
Auf der Anbieterseite verdichten sich zwei Kräfte: Fokus und juristischer/politischer Druck. OpenAI priorisiert das Kerngeschäft neu, streicht Nebenprojekte und verschiebt Gewicht Richtung Coding-Tools und Business-Anwendungen; parallel wird Infrastrukturkompetenz ausgebaut – unter anderem mit Sachin Katti für Compute, Rechenzentren und Chipversorgung. Gleichzeitig wächst das rechtliche Risiko: Klagen von Britannica sowie Merriam-Webster erweitern die Copyright-Debatte um Halluzinationen und Markenrecht, was Datenstrategie, Kosten und Regulierungsspielräume enger machen kann. Anthropic wiederum erlebt den strategischen Bruch mit dem Staat: Ein Pentagon-Deal fällt weg, weil militärische Anforderungen abgelehnt werden; das Pentagon reagiert mit eigenen Modellen und bindet parallel OpenAI sowie xAI ein, während Anthropic als „Supply-Chain-Risk“ eingestuft wird. Das öffnet die Tür für „staatseigene KI“ in sicherheitskritischen Bereichen – und für Anbieter, die politisch näher positioniert sind, wie xAI mit Pentagon-Zugang für Grok. In Europa setzt Mistral ein Gegenzeichen mit Small 4: ein multimodales Modell mit 119B Parametern, das Reasoning, Vision und Coding kombiniert und dank MoE-Architektur Effizienz verspricht; Open-Source und breite Integration (u. a. vLLM, Transformers) verschieben den Wettbewerb Richtung „bestes System“ statt „bestes Modell“. Meta arbeitet parallel an Unabhängigkeit von Nvidia über eigene Chips, baut ein Agenten-Ökosystem (u. a. Übernahme von Moltbook für KI-zu-KI-Interaktion) und denkt Werbung in Richtung Agent-zu-Agent-Commerce neu. Microsoft spielt das Skalierungs- und Plattformbrett: €3,2 Mrd. für Rechenzentren in Deutschland, Training von 3 Mio. Nutzern in Afrika und eine Neuaufstellung von Copilot durch Trennung von Produkt- und Modellentwicklung – globaler Ausbau wird zur geopolitischen Marktstrategie. Und Apple setzt das Kontrastprogramm: rund $14 Mrd. Investitionsniveau vs. „hunderte Milliarden“ der Konkurrenz, Fokus auf On-Device-AI statt Cloud und eine Wette auf Modell-Kommoditisierung, bei der der Zugangspunkt (UX/Ökosystem) die Differenzierung liefert.
Quick News 1: Zalando zeigt, wie KI direkt Umsatz bringt
Zalando liefert messbaren KI-Impact: Umsatz +17% auf über 12 Mrd. Euro, gleichzeitig wachsen die Warenkörbe um 13%. Besonders relevant ist die Retourenquote, die um 8% sinkt – durch bessere Empfehlungen. Weniger Retouren bedeutet unmittelbar bessere Margen und macht KI vom Innovationsthema zum operativen Gewinnhebel.
Quick News 2: Alibaba bündelt KI – Fokus auf Profit statt Projekte
Alibaba zieht KI-Aktivitäten in eine zentrale Einheit: Qwen-Modelle, App-Entwicklung und Tools wie DingTalk werden organisatorisch zusammengeführt. Ziel ist weniger Silos und damit schnellere Produktzyklen. Vor allem verschiebt sich die Logik Richtung Monetarisierung: KI soll nicht nur Innovation liefern, sondern direkt Umsatz treiben.
Quick News 3: Google Maps wird zum KI-Assistenten im Alltag
Google baut Maps mit „Ask Maps“ in Richtung Sprach-Interface für komplexe Alltagsfragen aus. Dazu kommt immersive Navigation mit 3D und natürlicher Sprache; Maps wird damit stärker zur Assistenz-Schicht statt reiner Navigation. Strategisch erhöht das die Bindung ans Google-Ökosystem, während für Unternehmen Sichtbarkeit stärker über KI-Interfaces und Plattformlogiken gesteuert wird.
🎙️ Folge in kompletter Länge anhören auf Spotify, Apple Podcasts & co!

