Anthropic baut Gigawatt-TPU-Kapazität mit Google und Broadcom aus
Neue Rechenkapazität ab 2027 wird Claude und andere Frontier-Modelle unterstützen – Anzeichen für extremen Bedarf bei KI-Infrastruktur.
Die Entwicklung führender KI-Modelle erfordert immer massivere Infrastruktur. Um der wachsenden Nachfrage nach seinen Claude-Modellen gerecht zu werden, hat Anthropic eine weitreichende Vereinbarung mit Google und Broadcom geschlossen. Ab 2027 stehen dem KI-Labor dadurch mehrere Gigawatt an zusätzlicher TPU-Rechenkapazität zur Verfügung. Die Partnerschaft zeigt, wie eng Modellentwickler, Cloud-Anbieter und Hardware-Hersteller inzwischen verzahnt sind.
Wachstum erfordert neue Maßstäbe
Die finanziellen und operativen Kennzahlen von Anthropic haben sich zuletzt deutlich beschleunigt. Nach eigenen Angaben des Unternehmens stieg der hochgerechnete Jahresumsatz (Run Rate) von knapp neun Milliarden US-Dollar Ende 2025 auf über 30 Milliarden US-Dollar Anfang 2026. Im selben Zeitraum verdoppelte sich laut Anthropic die Zahl der Geschäftskunden mit Jahresausgaben von mehr als einer Million US-Dollar von 500 auf über 1.000.
Dieses Wachstum macht Rechenleistung zu einem zentralen Engpass. Frontier-Modelle lassen sich nicht allein über bessere Software skalieren; sie brauchen Chips, Energie, Rechenzentren und langfristige Lieferbeziehungen.
Um diese Kapazitäten bereitzustellen, hat Google den Chip-Spezialisten Broadcom mit Entwicklung und Lieferung der nächsten Generation von Tensor Processing Units (TPUs) beauftragt. Broadcom-CEO Hock Tan prognostizierte laut The Register bereits im Frühjahr, dass sein Unternehmen 2027 über 100 Milliarden US-Dollar allein mit KI-Chips erwirtschaften werde. Die neue Vereinbarung macht diese Entwicklung konkreter: Die von Anthropic ab 2027 anvisierte Kapazität umfasst laut The Register etwa 3,5 Gigawatt, die direkt aus Broadcoms Next-Gen-TPUs stammen.
US-Infrastruktur und Hardware-Diversität
Der Großteil der neuen Rechenzentren soll in den USA entstehen. Anthropic knüpft damit an eine bereits angekündigte Investitionszusage an: Laut Anthropic umfasst das Infrastrukturprogramm 50 Milliarden US-Dollar zur Stärkung amerikanischer KI-Kapazitäten. Für den US-Markt könnte das langfristig eine höhere Verfügbarkeit der Claude-Modelle bedeuten.
Trotz der engen Kooperation mit Google bleibt Amazon Web Services ein wichtiger Cloud-Partner für Training und Hosting. Das Projekt Rainier, ein großes KI-Supercluster, bildet weiterhin einen zentralen Teil dieses Ökosystems. Anthropic setzt dabei auf eine breite Hardware-Mischung aus AWS Trainium, Google TPUs und NVIDIA GPUs.
Diese Diversifizierung ist strategisch relevant. Unterschiedliche Chips eignen sich für unterschiedliche Workloads, und mehrere Infrastrukturpartner verringern die Abhängigkeit von einer einzelnen Plattform. Für ein Unternehmen mit schnell wachsender Nachfrage kann genau diese Flexibilität entscheidend werden.
Konsequenzen für den Markt
Für Unternehmenskunden geht es bei der geplanten Gigawatt-Infrastruktur vor allem um Verfügbarkeit, Stabilität und Latenz. Der Zugang zu leistungsfähigen Frontier-Modellen hängt zunehmend davon ab, ob Anbieter genug Rechenkapazität zuverlässig bereitstellen können.
Durch die Ausweitung der Kapazitäten und die Nutzung spezialisierter Hardware könnten sich Kostenstrukturen langfristig stabilisieren. Sicher ist das nicht: Energiepreise, Chipverfügbarkeit, Auslastung und Nachfrage bleiben entscheidende Faktoren. Klar ist aber, dass der KI-Wettbewerb immer stärker über Infrastruktur entschieden wird.
Wer große Modelle betreibt, braucht nicht nur gute Forschung, sondern auch langfristige Kontrolle über Rechenkapazität. Die Partnerschaft zwischen Anthropic, Google und Broadcom ist deshalb weniger ein einzelner Lieferdeal als ein Signal für die nächste Skalierungsphase des Marktes.
Auf einen Blick
- Gigawatt-Deal: Anthropic sichert sich ab 2027 laut The Register rund 3,5 Gigawatt an TPU-Kapazität durch eine Partnerschaft mit Google und Broadcom.
- Umsatzsprung: Der hochgerechnete Jahresumsatz von Anthropic stieg laut Unternehmensangaben von knapp 9 Milliarden auf über 30 Milliarden US-Dollar.
- US-Fokus: Die neuen Kapazitäten fließen primär in den US-Markt und knüpfen laut Anthropic an ein 50-Milliarden-Dollar-Infrastrukturprogramm an.
- Hardware-Strategie: Durch die parallele Nutzung von AWS Trainium, Google TPUs und NVIDIA GPUs reduziert Anthropic Plattformabhängigkeiten und kann Workloads flexibler verteilen.
Transparenz
Agentenlog nutzt KI-Assistenz für Recherche, Struktur und Entwurf. Inhaltliche Auswahl, Einordnung und Veröffentlichung liegen redaktionell bei nexus; Quellen und Fakten werden vor Veröffentlichung geprüft.
Quellen
Das könnte dich auch interessieren
Anthropic baut Claude-Vertrieb mit Wall-Street-Partnern aus
Anthropic gründet mit Finanzpartnern eine Enterprise-AI-Firma und rückt damit tiefer in die Umsetzung bei Kunden.
OpenAI macht ChatGPT-Accounts phishingfester
OpenAI bündelt mit Advanced Account Security stärkere Schutzmaßnahmen für ChatGPT- und Codex-Accounts. Für Agenten-Workflows ist das vor allem ein Signal: KI-Konten werden zur Sicherheitsgrenze.
Oscars ziehen eine klare KI-Grenze bei Schauspiel und Drehbuch
Die Academy schärft ihre Regeln für die 99. Oscars: KI-generierte Rollen und rein maschinelle Drehbücher sollen nicht ausgezeichnet werden.