Google Cloud Next '26: Die wichtigsten Ankündigungen im Überblick

Google Cloud Next '26: Die wichtigsten Ankündigungen im Überblick
© Google (Image by Google)

Vom 22. bis 24. April 2026 hat Google im Mandalay Bay Convention Center in Las Vegas die Google Cloud Next '26 ausgerichtet. Über 32.000 Teilnehmer, drei Keynotes, 25 Spotlights und mehr als 700 Breakout-Sessions, am Ende stehen 260 Produkt- und Ökosystem-Ankündigungen auf der offiziellen Liste, die Google im Wrap-Up zählt. [1][8]

Inhaltlich zieht sich ein Thema durch fast alle Ankündigungen: agentische KI. Die Konferenz markiert den Übergang von der ersten Welle generativer KI, die in den Pilotprojekten der letzten zwei Jahre lief, in eine zweite Welle mit Agenten als zentralem Konstrukt. Also Software, die Aufgaben autonom übernimmt, mit anderen Agenten zusammenarbeitet und auf Unternehmensdaten zugreift. Die offiziellen Plattform-Kennzahlen, die Google dafür ausweist: rund 75 Prozent aller Google-Cloud-Kunden nutzen heute aktiv KI-Produkte, die Plattform verarbeitet ungefähr 16 Milliarden Tokens pro Minute, und 1.302 produktive Generative-AI-Use-Cases stehen in der Showcase-Galerie. [1]

TPU der achten Generation und das Virgo Network

Auf der Hardware-Seite stellt Google die achte TPU-Generation in zwei spezialisierten Varianten vor: TPU 8t für Training, TPU 8i für Inferenz und Reinforcement Learning. [2]

Der TPU 8t liefert 121 ExaFlops Compute pro Pod mit bis zu 9.600 Chips und 2 Petabyte gemeinsamem High-Bandwidth-Memory. Gegenüber der Vorgängergeneration Ironwood (TPU v7) etwa die dreifache Compute-Leistung pro Pod. Der TPU 8i kommt auf 288 GB HBM, 19,2 Tb/s Inter-Chip-Interconnect (Verdopplung) und laut Google 80 Prozent bessere Performance pro Dollar als die Vorgänger-Inferenzchips. Mixture-of-Experts-Modelle, die im Inferenz-Bereich aktuell den Ton angeben, werden nativ unterstützt. Beide Varianten sitzen auf einem Custom-Axion-Arm-Hostprozessor und sollen bis zu doppelte Performance pro Watt erreichen.

Neu ist auch TorchTPU, nativer PyTorch-Eager-Mode auf TPU, derzeit als Preview für ausgewählte Kunden. Damit nimmt Google ein Argument vom Tisch, das Anwender mit PyTorch-Stack bisher in Richtung CUDA-GPUs gezogen hat.

Damit die Skalierung der Beschleuniger zwischen den Pods nicht zum Engpass wird, hat Google zusätzlich das Virgo Network vorgestellt, eine neue Datacenter-Fabric. Bis zu 134.000 TPU-8t-Chips lassen sich in einer einzelnen Fabric verbinden, die 47 Petabit pro Sekunde an non-blocking bisektionaler Bandbreite trägt. Die Fabric-Latenz ist laut Google 40 Prozent geringer als bei der Vorgängergeneration. Architektonisch ist Virgo eine flache, zweischichtige non-blocking-Topologie mit drei spezialisierten Layern: Scale-up innerhalb des Pods, Scale-out für die RDMA-Kommunikation zwischen Beschleunigern, und das Jupiter Front-End für Storage und allgemeines Compute. [3]

Gemini Enterprise: Agent Platform und Agent App

Die wichtigste Software-Ankündigung ist die Gemini Enterprise Agent Platform, in der Google sämtliche Vertex-AI-Funktionen konsolidiert. Im offiziellen Blog-Post steht das so klar es geht: [4]

Moving forward, all Vertex AI services and roadmap evolutions will be delivered exclusively through the Agent Platform.

Die Plattform ist in vier Funktionsbereiche gegliedert. Im Build stehen das visuelle Agent Studio, das Code-First Agent Development Kit (ADK) mit graph-basiertem Framework und Multimodal-Streaming sowie der Agent Garden mit Templates für gängige Use Cases. Im Scale liegen die Agent Runtime mit Sub-Sekunden-Cold-Starts, die Agent Memory Bank für persistentes Long-Term-Memory, Agent Sessions mit WebSocket-Streaming und die Agent Sandbox als gehärtete Ausführungsumgebung für vom Modell selbst generierten Code. Der Bereich Govern enthält kryptografische Agent Identity mit Audit-Trails, eine Agent Registry als zentrales Verzeichnis genehmigter Agenten, ein Agent Gateway mit Model-Armor-Integration gegen Prompt Injection und ein Agent Security Dashboard im Security Command Center. Optimize liefert Simulation, Evaluation, Observability und einen Agent Optimizer, der typische Failure-Patterns clustert und Verbesserungsvorschläge generiert.

Über das Model Garden stehen mehr als 200 Modelle bereit. Darunter die neu vorgestellten Gemini 3.1 Pro, Gemini 3.1 Flash Image und Lyria 3, das offene Gemma 4 und die volle Anthropic-Familie mit Claude Opus, Sonnet und Haiku. Zwei Protokolle sind im Mittelpunkt: das Model Context Protocol (MCP) für die Anbindung an Unternehmensdaten und das Agent Payment Protocol (AP2), das PayPal als Foundation für agent-getriebene Zahlungen einsetzt.

Parallel dazu hat Google die Gemini Enterprise App für Endanwender ausgebaut: einen No-Code Agent Designer, eine zentrale Inbox für laufende Agent-Aktivitäten, Projects mit Speicher-Isolation, Skills als @-Mention-Shortcuts, Canvas als integrierten Editor mit Microsoft-365-Export, einen erweiterten Deep Research Agent und ein neues Agent-to-UI-Protokoll. Über den Agent Marketplace sind zum Start mehr als 70 Partner-Agenten verfügbar, von Accenture, Adobe, Atlassian, Deloitte und Lovable über Oracle, Palo Alto Networks, Replit und S&P Global bis Salesforce, ServiceNow und Workday. Begleitet wird das Ökosystem von einem 750-Millionen-Dollar-Innovation-Fund. [8]

Agentic Data Cloud und Cross-Cloud

Die Agentic Data Cloud erweitert Googles Daten-Plattform um Komponenten, die Agenten als primäre Konsumenten adressieren. Herzstück ist der Knowledge Catalog, eine Weiterentwicklung von Dataplex, die Kontext aus Google Cloud, Palantir, Salesforce Data 360, SAP, ServiceNow und Workday aggregiert, automatisch anreichert und IAM-bewusst durchsuchbar macht. Das Google Cloud Data Agent Kit liefert eine portable Agent-Suite für VS Code, Gemini CLI, Codex und Claude Code, mit einem Data Engineering Agent und einem Data Science Agent in GA. Über MCP lässt sich agentischer Zugriff auf BigQuery, Cloud SQL, Spanner, AlloyDB und Looker absichern. [5]

Auf der Cross-Cloud-Ebene öffnet Google die Plattform deutlich nach AWS und Azure. Über Cross-Cloud Interconnect und Apache Iceberg REST Catalog können Agenten ohne Egress-Kosten auf Daten in anderen Clouds zugreifen. Eine Open Federation verbindet Databricks Unity Catalog, Snowflake Polaris und AWS Glue Data Catalog bidirektional. Mit Spanner Omni lässt sich die Spanner-Engine erstmals außerhalb von Google Cloud betreiben, auch on-premises.

Die Performance-Zahlen, die in der Kommunikation auftauchen: Die Lightning Engine für Apache Spark liefert die doppelte Price-Performance, Managed Lustre skaliert auf bis zu 10 TB/s, das Bigtable In-Memory Tier liefert Read-Latenzen unter einer Millisekunde, BigQuery Fluid Scaling soll Autoscaling-Kosten um bis zu 34 Prozent senken, und die Spanner Columnar Engine verspricht bis zu 200-fach schnellere Analytik auf Live-Operational-Daten. Im Storage-Bereich ergänzt Cloud Storage Rapid das Bild mit 15+ TB/s Bandbreite und 20 Millionen Requests pro Sekunde (GA). [5][7]

Zwei Bausteine sind für Souveränitäts-Diskussionen besonders relevant. Confidential External Key Management auf Basis von Confidential Compute hält die Schlüssel in einem tamper-proof Environment, in dem Google-Admins ohne explizite, jederzeit widerrufbare Autorisierung keinen Zugriff haben. Und Gemini on Google Distributed Cloud (GDC) macht das Gemini-Modell auch in einer vollständig air-gapped Variante einsetzbar, mit NVIDIA Blackwell HGX B200 und B300 als Hardware-Basis. Damit positioniert sich Google für regulierte und klassifizierte Workloads, die bisher gar nicht in einer Public Cloud landen konnten.

Workspace Intelligence

Auf der Endanwender-Seite hat Google die bisherigen Gemini-Funktionen in den Office-Apps zu einem zusammenhängenden Wissens- und Aktionsnetzwerk weiterentwickelt: Workspace Intelligence. [6]

Google Workspace Intelligence: Unified, real-time understanding to power agentic work

In Chat fungiert Ask Gemini als Kommandozeile mit täglichen Briefings und Anbindung an Asana, Jira und Salesforce. In Docs gibt es Infografik-Generierung, in Sheets Tabellenerstellung in natürlicher Sprache, in Slides eine vollständige Deck-Generierung in einem Schritt. Gmail bekommt eine AI Inbox und AI Overviews, Drive ergänzt Drive Projects als Container für zusammenhängende Dateien. Hinzu kommen Workspace Skills für agentische Automatisierungen, Custom Avatars in Vids und Auto-Summaries in Google Meet, die auch für Sitzungen in Zoom und Microsoft Teams funktionieren. Sovereign Controls und Client-Side Encryption sind GA, eine Datenverarbeitungs-Eingrenzung auf USA oder EU ist konfigurierbar, Daten werden nicht zum Modell-Training verwendet. Der Rollout startet im April 2026.

Agentic Defense und Wiz

Auf der Sicherheits-Seite kombiniert Google unter dem Schlagwort Agentic Defense seine eigenen Threat-Intelligence- und Security-Operations-Capabilities mit denen aus der Wiz-Akquisition. Drei agentische Komponenten sind in GA: ein Threat Hunting Agent für die Erkennung neuer Angriffsmuster, ein Detection Engineering Agent für die Identifikation von Lücken in der Erkennungsabdeckung und ein Third-Party Context Agent für die Anreicherung mit externen Threat-Quellen. Model Armor schützt Agenten in Agent Gateway, Agent Runtime, Langchain und Firebase gegen Prompt Injection, Tool Poisoning und Datenabfluss. Auf der Wiz-Seite kommen breite Integrationen mit Databricks, AWS Agentcore, Azure Copilot Studio und Salesforce Agentforce dazu. Ergänzt wird das durch ein AI-Bill of Materials als dynamisches Inventar von Frameworks, Modellen und IDE-Erweiterungen sowie zwei Krypto-Bausteine: Cloud KMS Confidential EKM mit regionalem Key-Hosting und KMS Quantum Safe Key Imports, beide in Preview. [8]

Quellenangaben

Weiterlesen