Anthropic & Amazon: Der $100-Mrd.-Compute-Deal
TL;DR: Anthropic sichert sich 5 Gigawatt AWS-Rechenleistung und verpflichtet sich zu über 100 Milliarden Dollar an Cloud-Ausgaben – Amazon investiert im Gegenzug bis zu 25 Milliarden Dollar zusätzlich. Für Unternehmen mit AI-Workloads auf AWS ist das eine strategische Weichenstellung.
Am 20. April 2026 haben Anthropic und Amazon eine massiv erweiterte Partnerschaft bekanntgegeben. Anthropic sichert sich bis zu 5 Gigawatt Rechenkapazität auf AWS – primär auf Basis von Trainium2- bis Trainium4-Chips sowie Graviton-Kernen – und verpflichtet sich, über einen Zeitraum von zehn Jahren mehr als 100 Milliarden Dollar für Training und Deployment seiner Claude-Modelle auf AWS auszugeben. Amazon investiert seinerseits 5 Milliarden Dollar sofort und stellt bis zu 20 weitere Milliarden in Aussicht, womit das Gesamtengagement auf bis zu 33 Milliarden Dollar anwächst. Bereits heute nutzen laut Amazon über 100.000 Kunden Claude über AWS – Tendenz stark steigend.
Was ist neu?
Kern des Deals ist die tiefe Integration der Claude Platform direkt in die AWS-Infrastruktur: Zugriff über bestehende AWS-Accounts, gemeinsames Billing und einheitliche Security-Kontrollen. Das geht deutlich über das bisherige Bedrock-Angebot hinaus. Bis Ende 2026 soll bereits knapp 1 Gigawatt an Trainium2/3-Kapazität online gehen – Anthropic betreibt aktuell mehr als eine Million Trainium2-Chips. Damit adressiert die Partnerschaft gezielt die Engpässe, die wachsende Claude-Nachfrage in der Vergangenheit verursacht hatte.
Was bedeutet das für Teams und Tech Leads?
Für CTOs und Tech Leads, die AI-Workloads auf AWS betreiben oder planen, ist die Botschaft klar: AWS positioniert sich als primäre Infrastruktur für Claude – mit skalierbarer Trainium-Kapazität, direkter Platform-Integration und internationalem Rollout in Asien und Europa. Wer bereits in AWS investiert ist, bekommt Zugang zu Claude-Modellen mit vereinfachtem Onboarding, ohne separate Vertragsbeziehung mit Anthropic. Strategisch zeigt der Deal, wie der Compute-Wettbewerb unter den Hyperscalern (AWS, Azure, GCP) zunehmend über langfristige Exklusiv-Deals mit AI-Labs entschieden wird – eigene Chip-Architekturen wie Trainium werden dabei zum Differenzierungsmerkmal. Für die eigene Infrastruktur- und Vendor-Strategie bedeutet das: Die Wahl des Cloud-Providers wird mehr denn je zur Entscheidung über den AI-Stack.
