Google Cloud Next '26: Neue TPU-Generation, Agenten-Plattform und Workspace Intelligence

1 hour ago 1

Google hat auf der Konferenz Cloud Next '26 seine achte TPU-Generation, eine überarbeitete Agenten-Plattform und eine neue KI-Schicht für Workspace vorgestellt. Die Ankündigungen fasst das Unternehmen unter dem Schlagwort "Agentic Enterprise" zusammen.

Google teilt seine Tensor Processing Units erstmals in zwei Varianten auf: TPU 8t für Training und TPU 8i für Inferenz. Laut Amin Vahdat, SVP und Chief Technologist für KI und Infrastruktur, reagiert Google damit auf steigende Inferenz-Anforderungen durch Agenten, die in Schleifen planen, ausführen und lernen.

Im direkten Vergleich mit Nvidia setzt Google weniger auf Einzelleistung als auf Skalierung. The Register weist darauf hin, dass Nvidias kommende Rubin-GPUs pro Chip mehr Rechenleistung und deutlich mehr Speicherbandbreite bieten als TPU 8t. Entscheidend beim Training von Frontier-Modellen sei aber nicht die Leistung eines einzelnen Chips, sondern wie viele sich effizient verbinden lassen.

Hier liegt laut The Register Googles Vorteil: Nvidias neueste GPUs binden bis zu 576 Beschleuniger in einer NVLink-Domain zusammen, bevor langsamere Ethernet- oder InfiniBand-Verbindungen nötig werden. Google nutzt dagegen optische Circuit-Switches und verknüpft damit 9.600 TPUs in einem einzigen Pod. Über das neue Virgo Network sollen sich mehrere Rechenzentren zu Clustern mit bis zu einer Million TPUs verbinden lassen. Ein Managed-Lustre-Speichersystem schiebt Daten direkt in den Speicher der Beschleuniger. Google zielt auf eine "Goodput"-Rate von rund 97 Prozent, also die Zeit, in der die Chips tatsächlich trainieren, statt auf Checkpoints oder Fehler zu warten.

Der Inferenz-Chip TPU 8i tauscht einen Teil der Rechenleistung gegen mehr On-Chip-SRAM und schnelleren HBM. Der größere SRAM hält mehr vom Key-Value-Cache, eine Art Gedächtnis bisheriger Antworten des Modells, direkt auf dem Chip und verhindert, dass Rechenkerne auf Daten warten. Eine Collective Acceleration Engine soll helfen, Mixture-of-Experts-Modelle zu beschleunigen, bei denen unvorhersehbar wechselnde Experten auf verschiedenen Chips liegen. Ergänzend hat Google eine Netzwerktopologie namens Boardfly entwickelt, die die Chip-zu-Chip-Latenz reduzieren soll.

Beide TPUs laufen zudem erstmals auf Googles Arm-basierten Axion-CPUs.

Agenten-Plattform bündelt Bau und Betrieb

Auf der Softwareseite bündelt Google seine bisherigen KI-Dienste in der Gemini Enterprise Agent Platform, die auf Vertex AI aufbaut. Zum Bauen gibt es ein Werkzeug, mit dem sich das Zusammenspiel mehrerer Agenten als Ablaufdiagramm definieren lässt, sowie eine Oberfläche namens Agent Studio, über die sich Agenten per natürlicher Sprache erstellen lassen. Ein zentrales Verzeichnis soll verhindern, dass in Organisationen Dutzende ähnlicher Agenten parallel entstehen.

Für den Betrieb adressiert Google bekannte Schwachstellen. Langlaufende Agenten sollen mehrstufige Prozesse selbstständig abarbeiten, statt bei jedem Schritt auf eine menschliche Eingabe zu warten. Abgeschottete Testumgebungen lassen Agenten selbst geschriebenen Code oder Browser-Automatisierungen ausführen, ohne Hostsysteme zu gefährden. Eine Memory Bank soll Agenten ein Langzeitgedächtnis verschaffen, damit sie nicht bei jeder Sitzung bei null beginnen.

Weil autonome Agenten neue Angriffsflächen schaffen, liefert Google Kontrollinstrumente mit: kryptografische Identitäten für jeden Agenten, vorgeschaltete Filter gegen Prompt Injection und eine Anomalie-Erkennung für auffälliges Verhalten wie unbefugte Datenzugriffe oder Endlosschleifen beim Schlussfolgern. Simulationswerkzeuge erlauben Tests gegen synthetische Nutzer-Interaktionen, bevor Agenten auf echte Kunden treffen. Wie effektiv diese Maßnahmen sind, wird sich zeigen.

Als Modelle stehen Gemini 3.1 Pro, Nano Banana 2 und Lyria 3 zur Verfügung, dazu Claude Opus, Sonnet, Haiku und neu Claude Opus 4.7 von Anthropic.

Die zugehörige Gemini-Enterprise-App richtet sich an Endnutzer: Mitarbeiter können per Baukasten eigene Agenten zusammenklicken, laufende Aufgaben in einer Art Posteingang überwachen und Dokumente direkt in der App bearbeiten.

Workspace Intelligence als gemeinsame Wissensschicht

Parallel führt Google Workspace Intelligence ein, eine Schicht, die Inhalte aus Gmail, Docs, Drive, Meet und Chat inhaltlich verknüpft. Gemini und darauf aufbauende Agenten sollen so den Zusammenhang zwischen E-Mails, Terminen, Chats und Dateien verstehen, statt Informationen aus jeder App isoliert abzufragen.

In Gmail sortiert Gemini eingehende Mails und fasst Themen zusammen, in Google Chat lassen sich aus dem Gespräch heraus Termine anlegen oder Dokumente erstellen. In Docs erzeugt Gemini Entwürfe aus E-Mails und Dateien, in Sheets Dashboards, in Slides Präsentationen. Drive Projects fasst Dateien und Mails zu themenbezogenen Arbeitsbereichen zusammen. Für Umstiegswillige bietet Google eine schnellere Migration von Microsoft 365 an.

KI-News ohne Hype – von Menschen kuratiert

Mit dem THE‑DECODER‑Abo liest du werbefrei und wirst Teil unserer Community: Diskutiere im Kommentarsystem, erhalte unseren wöchentlichen KI‑Newsletter, 6× im Jahr den "KI Radar"‑Frontier‑Newsletter mit den neuesten Entwicklungen aus der Spitze der KI‑Forschung, bis zu 25 % Rabatt auf KI Pro‑Events und Zugriff auf das komplette Archiv der letzten zehn Jahre.

Jetzt abonnieren

Read Entire Article