Preview image for article: Rechenzentren im All: Space Computing boomt

Rechenzentren im All: Space Computing boomt

· Published on 27.03.2026

TL;DR: Der Wettlauf um Computing-Infrastruktur im Weltraum hat begonnen. Während Guoxing Aerospace bereits 12 Satelliten mit KI-Modellen im Orbit betreibt und bis 2035 auf 2.800 Satelliten expandieren will, brachte Starcloud Nvidia H100 GPUs ins All. Für Unternehmen eröffnen sich neue Möglichkeiten für Edge Computing und Datenverarbeitung – mit dramatischen Auswirkungen auf IT-Strategien. Die Grenzen der IT-Infrastruktur verschieben sich wortwörtlich ins All. Was vor wenigen Jahren noch nach Science-Fiction klang, ist heute Realität: Rechenzentren im Weltraum. Während terrestrische Datenzentren mit Energieengpässen und Kühlungsproblemen kämpfen, entsteht 500-1000 Kilometer über unseren Köpfen eine neue Generation von Computing-Infrastruktur, die unsere Vorstellung von Cloud-Diensten fundamental verändern könnte.

Die wichtigsten Punkte

  • 📅 Verfügbarkeit: Erste operative Systeme bereits seit Mai 2025 im Orbit
  • 🎯 Zielgruppe: Unternehmen mit hohem Datenaufkommen, KI-Workloads, Erdbeobachtung
  • 💡 Kernfeature: 5-8x effizientere Solarenergie, Edge Computing direkt im Orbit
  • 🔧 Tech-Stack: Nvidia H100 GPUs, Alibaba Qwen3 KI-Modelle, 744 TOPS pro Satellit

Was bedeutet das für Führungskräfte und IT-Strategen?

Die Entwicklung orbitaler Rechenzentren ist keine ferne Zukunftsvision mehr, sondern eine strategische Realität, die IT-Entscheidungsträger auf dem Radar haben sollten. Für Teams bedeutet das eine fundamentale Erweiterung des Cloud-Computing-Paradigmas: Die “Cloud” ist nicht mehr nur metaphorisch, sondern buchstäblich über uns.

Die Pioniere des Space Computing

Guoxing Aerospace (auch bekannt als ADA Space oder Chengdu Guoxing Aerospace Technology Co., Ltd.) hat am 14. Mai 2025 mit dem Start von 12 Computing-Satelliten via Long-March-2D-Rakete das erste operative weltraumgestützte Computernetzwerk etabliert. Jeder dieser Satelliten verfügt über eine Rechenleistung von 744 Billionen Operationen pro Sekunde (TOPS) und bietet zusammen 5 Petaflops Rechenleistung sowie 30 Terabyte Speicher. Die Satelliten kommunizieren untereinander mit Laser-Verbindungen von bis zu 100 Gbps. Im Januar 2026 gelang dem Unternehmen ein weiterer Meilenstein: Ein KI-Modell wurde erfolgreich in den Orbit hochgeladen und führte dort Inferenz-Aufgaben durch. ⚠️ Korrektur: Die ursprünglich berichtete Round-Trip-Zeit von “zwei Minuten” ist technisch unmöglich für LEO-Satelliten. In Wirklichkeit beträgt die Light-Speed-Latenz für 500-1000km Orbithöhe etwa 3-7 Millisekunden pro Strecke, also unter 20ms Round-Trip inklusive Verarbeitungszeit. Die zwei Minuten könnten sich auf den gesamten Test-Workflow inklusive menschlicher Interaktion beziehen, nicht auf die reine Kommunikationslatenz. Starcloud setzte parallel dazu auf bewährte Hardware und brachte im November 2025 mit dem Satelliten “Starcloud-1” die erste Nvidia H100 GPU ins All – die gleichen Hochleistungsprozessoren, die in terrestrischen KI-Rechenzentren für Training und Inferenz eingesetzt werden. Der 60kg schwere Satellit trainierte erfolgreich Googles Gemma-Modell im Orbit und markierte damit die erste AI-Model-Training-Mission im Weltraum. Für Oktober 2026 plant Starcloud den Start eines mindestens 10x leistungsstärkeren Nachfolgers mit Nvidias Blackwell-Architektur. ⚠️ Wichtiger Hinweis: Consumer-GPUs wie die H100 sind nicht für die Weltraumumgebung gehärtet. Kosmische Strahlung verursacht Single-Event-Upsets (Bit-Flips) und kann die Hardware-Lebensdauer erheblich verkürzen. Starcloud muss daher mit Redundanz, Fehlerkorrektur und kürzeren Betriebszyklen arbeiten als bei terrestrischen Rechenzentren.

Technische Details und Infrastruktur

Die orbitale Computing-Infrastruktur basiert auf Edge-Computing-Prinzipien: Daten werden dort verarbeitet, wo sie entstehen. Dies eliminiert die Notwendigkeit, massive Datenmengen zur Erde zu übertragen – ein Game-Changer für Satellitendaten-intensive Anwendungen.

Die Expansionspläne sind ambitioniert:

Guoxing Aerospace Roadmap:

  • 2026: Zweiter und dritter Satelliten-Cluster
  • 2030: 1.000-Satelliten-Netzwerk
  • 2035: 2.800 spezialisierte Computing-Satelliten
    • 2.400 Inference-Satelliten
    • 400 Training-Satelliten
    • Geplante Leistung: Integrierte space-terrestrische KI-Infrastruktur (spezifische Petaflops-Zahlen nicht offiziell bestätigt) Die Satelliten operieren in verschiedenen Orbits zwischen 500 und 1.000 Kilometer Höhe, optimiert für kontinuierliche Sonneneinstrahlung und minimale Latenz.

Praktischer Business-Impact für Unternehmen

Energieeffizienz als Treiber

Für Teams bedeutet das eine potenzielle Lösung für eines der drängendsten Probleme moderner IT-Infrastruktur: den Energiehunger. Solarpaneele im Orbit erhalten etwa 36% mehr Sonnenstrahlung (1366 W/m² statt 1000 W/m²), da keine Atmosphäre die Energie filtert. In niedrigen Erdumlaufbahnen (LEO) bedeutet das real etwa 40% mehr Energieausbeute im Vergleich zu erdbasierten Anlagen, wenn Eclipse-Zeiten berücksichtigt werden. Bei kontinuierlicher Sonneneinstrahlung in höheren Orbits entfallen zudem die Probleme mit Tag-Nacht-Zyklen und Wetterbedingungen. ⚠️ Technische Realität: Die oft genannten Effizienzsteigerungen von 5-8x oder mehr sind Marketing-Übertreibungen. Die physikalische Realität liegt bei etwa 1.4-2x mehr Energieertrag, abhängig vom Orbit.

Branchen mit besonderem Potenzial:

  1. Erdbeobachtung und Umweltmonitoring: Echtzeit-Analyse von Satellitenbildern direkt im Orbit
  2. Telekommunikation: Edge-Computing für niedrige Latenz in globalen Netzen
  3. Verteidigung und Katastrophenschutz: Autonome Systeme mit geringer Bodenabhängigkeit
  4. KI-Training und Inferenz: Unbegrenzte Solarenergie für energieintensive Modelle
  5. Autonome Systeme: Verbesserte Reaktionsfähigkeit von Sensoren und Fahrzeugen

Die Herausforderungen verstehen

Für IT-Teams und Entscheidungsträger ist es wichtig, auch die aktuellen Limitationen zu verstehen:

  • Wartung: Jeder Hardware-Eingriff erfordert einen Raketenstart
  • Strahlung: Kosmische Strahlung (Protonen, schwere Ionen) verursacht Single-Event-Upsets und permanente Schäden an nicht gehärteter Elektronik. Consumer-GPUs wie die H100 erfahren signifikant höhere Fehlerraten als auf der Erde – ein kritisches Problem für zuverlässiges Computing. Professionelle Weltraumanwendungen nutzen normalerweise strahlungsgehärtete (rad-hard) Chips, die deutlich teurer und weniger leistungsfähig sind
  • Kühlung: Ohne Atmosphäre muss Wärme über große Radiatoren abgestrahlt werden. Eine H100 GPU mit 700W Leistungsaufnahme benötigt mehrere Quadratmeter Kühlradiator – ein massiver Limitierungsfaktor für die Skalierung von GPU-Clustern im Orbit
  • Kosten: Trotz sinkender Startkosten (aktuell etwa $500-1.000 USD/kg bei SpaceX für 2025-2026, langfristiges Ziel mit Starship: unter $200 USD/kg) bleiben initiale Investitionen hoch

Strategische Einordnung für IT-Organisationen

Die Lernkurve für Teams ist steil, aber der strategische Vorteil könnte entscheidend sein. Unternehmen sollten folgende Aspekte in ihre Langzeitplanung einbeziehen:

1. Hybrid-Cloud wird zu “Terra-Space-Cloud”

Die Zukunft der Cloud-Architektur könnte eine Drei-Schichten-Strategie umfassen: On-Premise, terrestrische Cloud und orbitale Cloud. Für Teams bedeutet das neue Skills in der Orchestrierung verteilter Systeme über atmosphärische Grenzen hinweg.

2. Data Gravity neu denken

Das Konzept der “Data Gravity” – Daten ziehen Anwendungen an – erhält eine neue Dimension. Für Satellitendaten könnte es effizienter sein, die Verarbeitung direkt im Orbit durchzuführen, statt Terabytes zur Erde zu übertragen.

3. Disaster Recovery und Business Continuity

Orbitale Rechenzentren bieten natürlichen Schutz vor terrestrischen Bedrohungen wie Naturkatastrophen, aber erfordern neue Überlegungen zu Redundanz und Failover-Strategien.

Der Wettbewerb intensiviert sich

Neben den Pionieren Guoxing und Starcloud positionieren sich auch die Tech-Giganten:

  • SpaceX plant die Transformation von Starlink in eine orbitale Edge-Computing-Plattform
  • Amazon erforscht mit Project Kuiper ähnliche Konzepte
  • Google betont die Entlastung terrestrischer Netze durch Weltraum-Rechenlasten
  • Europäische Initiativen durch TUM und ESPI für digitale Souveränität

Praktische Nächste Schritte

  1. Technologie-Scouting: Beobachten Sie die Entwicklungen bei Space Computing aktiv. Die Technologie entwickelt sich rasant.
  2. Use-Case-Evaluierung: Identifizieren Sie in Ihrer Organisation Workloads, die von orbitaler Verarbeitung profitieren könnten – besonders bei Satellitendaten oder globalen Edge-Computing-Anforderungen.
  3. Skills-Aufbau: Investieren Sie in Weiterbildung für Teams im Bereich verteilter Systeme und Edge Computing. Die Konzepte sind übertragbar, auch wenn Space Computing noch nicht direkt verfügbar ist.
  4. Partnerschaften evaluieren: Prüfen Sie Kooperationen mit Raumfahrt- und Satelliten-Unternehmen, um frühzeitig Zugang zu dieser Infrastruktur zu erhalten.

Fazit: Die Zukunft ist vertikal

In der Praxis zeigt sich, dass Space Computing kein ferner Traum mehr ist, sondern eine entstehende Realität mit konkreten Business-Cases. Während die Technologie noch in den Kinderschuhen steckt, sind die potenziellen Vorteile – von Energieeffizienz über reduzierte Latenz bis zu neuen Disaster-Recovery-Optionen – zu signifikant, um sie zu ignorieren. Für Teams bedeutet das: Die Cloud-Transformation ist noch nicht abgeschlossen. Nach der Migration von On-Premise in die Cloud steht möglicherweise die nächste Transformation bevor – von der terrestrischen in die orbitale Cloud. Die Unternehmen, die diese Entwicklung frühzeitig verstehen und in ihre Strategien einbeziehen, werden einen entscheidenden Wettbewerbsvorteil haben. Die Frage ist nicht mehr, ob Computing ins All wandert, sondern wann Ihr Unternehmen bereit sein wird, diese neue Dimension der IT-Infrastruktur zu nutzen.

Written by

Hey! Ich bin Robin Böhm – Software-Enthusiast, Berater und Autor mit Leidenschaft für JavaScript, Web und KI. Schon seit Jahren bin ich im KI-Universum unterwegs – erst an der Uni, dann immer wieder mit spannenden Prototypen im Job. Jetzt, wo KI endlich für alle zugänglich ist, brennt mein Herz dafür dieses Wissen Menschen zugänglich zu erklären! Es macht mir Spaß zu zeigen, wie man mit cleveren Agenten-Systemen den Alltag vereinfachen und langweilige Tasks automatisieren kann. Übrigens: Ich habe das erste deutsche Angular-Buch verfasst und bin Mitgründer von Angular.DE sowie Gründer von Workshops.DE. Lust auf Beratung, Coaching oder einen Workshop zu JavaScript, Angular oder KI-Integrationen? Schreib mir einfach! 😊

From knowledge to success.
Start your training now!
"The trainers are absolute professionals and convey their enthusiasm for the topic. Our employees benefit from intensive, hands-on trainings tailored to their needs. The feedback has been outstanding."
Annika Stille, Head of Internal Training at adesso SE
Annika Stille
Head of Internal Training, adesso SE