Das nächste Space Race: Tech-Konzerne wollen KI-Fabriken im Weltraum bauen

1 month ago 3

Diese Zahl wirkt gigantisch, wenn man sie in Relation zu aktuellen technischen Einschätzungen setzt: Google-Manager Travis Beals schätzt, dass man allein um die Rechenleistung eines einzigen modernen 1-Gigawatt-Rechenzentrums auf der Erde zu ersetzen, einen Schwarm von etwa 10.000 Satelliten bräuchte. 300 bis 500 Gigawatt würde in diesem Modell eine Flotte von Millionen solcher Hochleistungs-Satelliten erfordern – ein logistischer und finanzieller Kraftakt, der weit über heutige Dimensionen hinausgeht.

Auch bei Blue Origin beschäftigt sich ein Team angeblich seit über einem Jahr mit der notwendigen Technologie. Gründer Jeff Bezos sieht den Vorteil vor allem in der unbegrenzten Verfügbarkeit von Solarenergie, rechnet aber damit, dass es noch bis zu 20 Jahre dauern wird, bis orbitale Datenzentren kostengünstiger sind als irdische Anlagen.

Google verfolgt in Kooperation mit dem Satellitenbetreiber Planet Labs bereits einen konkreten Zeitplan. Bereits Anfang 2027 sollen im Rahmen des Projekts "Suncatcher" zwei Testsatelliten starten, die mit Googles Tensor Processing Units (TPUs) bestückt sind. Beals bezeichnete das Projekt als "Moonshot".

10.000 Satelliten für ein Gigawatt

Googles Ansatz unterscheidet sich von dem der monolithischen Raumstationen. Anstelle riesiger Einzelstrukturen schlagen die Forscher Schwärme, also Konstellationen, aus kleineren Satelliten vor. Um die Rechenkapazität eines irdischen Gigawatt-Rechenzentrums nachzubilden, wären laut Beals 10.000 Satelliten der 100-Kilowatt-Klasse notwendig. Dies entspricht mutmaßlich der Leistung, die die neuen Starlinkv3-Satelliten von SpaceX erzeugen können.

Das Systemdesign sieht vor, dass diese Satelliten in einer sogenannten Dämmerungs-Umlaufbahn (Dawn-Dusk Orbit) fliegen, um die Sonneneinstrahlung zu maximieren. Laut dem Google-Paper erhalten Solarmodule in der angestrebten Umlaufbahn rund achtmal mehr Energie pro Jahr als an einem durchschnittlichen Standort auf der Erde. Die größte Herausforderung ist dabei nicht die Energiegewinnung, sondern die Kommunikation zwischen den Recheneinheiten.

In terrestrischen Rechenzentren sind KI-Chips (wie Googles TPUs) über Glasfaserkabel mit extrem hoher Bandbreite verbunden. Im All müssen Laser diese Aufgabe übernehmen. Das Google-Team schlägt Free-Space Optics (FSO) vor. Um die benötigten Datenraten von mehreren Terabit pro Sekunde zu erreichen, müssen die Satelliten extrem eng beieinander fliegen.

Das Paper beschreibt Formationen, bei denen Satelliten nur wenige hundert Meter voneinander entfernt sind. Ein vorgeschlagenes Cluster besteht aus 81 Satelliten in einem Radius von einem Kilometer. Diese Nähe ermöglicht es, handelsübliche optische Transceiver zu nutzen, da die Signalstärke mit der Distanz quadratisch abnimmt. Bei kurzen Distanzen können zudem mehrere Laser-Links parallel (räumliches Multiplexing) genutzt werden, um die Bandbreite weiter zu steigern.

Hardware im Protonenbeschuss

Ein weiteres Kernproblem ist die aggressive Umgebung. Elektronik im All ist konstanter Strahlung ausgesetzt, die zu Fehlfunktionen oder der Zerstörung der Chips führen kann. Um die Machbarkeit zu prüfen, unterzogen die Forscher Googles KI-Chips der 6. Generation, die "Trillium" TPUs, einem Härtetest.

In einem Zyklotron wurden die Chips mit 67 MeV Protonenstrahlen beschossen, um fünf Jahre im niedrigen Erdorbit zu simulieren. Das Ergebnis: Die Hardware überlebte die Gesamtdosis ohne permanente Ausfälle. Allerdings traten sogenannte „Single Event Effects“ auf – spontane Bit-Flips im Speicher.

Während diese Fehlerquote für die Ausführung fertiger KI-Modelle (Inferenz) laut den Forschern akzeptabel ist, stellt sie für das Training neuer Modelle ein Risiko dar. Ein unbemerkter Rechenfehler könnte ein tagelanges Training korrumpieren. Hier wären robuste Fehlerkorrekturmechanismen notwendig.

Die Kostenfrage: Warten auf das Starship

Die technische Machbarkeit steht und fällt vor allem mit den Kosten für den Transport ins All. Laut der Analyse im Google-Paper müsste der Preis für den Transport in den niedrigen Erdorbit (LEO) auf etwa 200 US-Dollar pro Kilogramm fallen, damit das Konzept wirtschaftlich mit irdischen Rechenzentren konkurrieren kann.

Hier schließt sich der Kreis zu SpaceX. Das Forschungsteam setzt große Hoffnungen in das Starship. Sollte SpaceX das Ziel einer vollständigen und schnellen Wiederverwendbarkeit erreichen, könnten die Startkosten drastisch sinken. Bei einer 100-fachen Wiederverwendbarkeit der Komponenten prognostiziert das Paper theoretische interne Kosten für SpaceX von unter 15 Dollar pro Kilogramm. Selbst mit hohen Gewinnmargen für SpaceX wäre ein Kundenpreis von unter 200 Dollar/kg bis Mitte der 2030er Jahre denkbar.

Das ungelöste Hitzeproblem

Neben Strahlung und Kosten bleibt die Thermodynamik der größte Feind von Hochleistungselektronik im All. Im Vakuum fehlt Luft zur Konvektionskühlung; Wärme kann nur durch Strahlung abgegeben werden. Das Paper beschreibt das Wärmemanagement daher als eine der kritischsten Optimierungsaufgaben für den Betrieb leistungsdichter TPUs im Vakuum.

Google setzt dabei primär auf ein passives System aus Wärmerohren (Heatpipes) und dedizierten Radiatorflächen, um die Zuverlässigkeit zu maximieren und mechanische Fehlerquellen aktiver Pumpen zu vermeiden. Eine besondere Herausforderung stellt die geplante enge Flugformation der Satelliten-Cluster dar: Die Bahnberechnungen müssen sicherstellen, dass sich die Satelliten nicht gegenseitig verdecken, da dies nicht nur die Energiegewinnung, sondern explizit auch die Abstrahlung der Abwärme („rejected heat“) im Infrarotbereich auf den Nachbarsatelliten blockieren würde.

Hinsichtlich der Materialien betont Google die Notwendigkeit fortschrittlicher thermischer Schnittstellenmaterialien (Thermal Interface Materials), um die enorme Hitzelast effizient von den Chips auf die Radiatoren zu übertragen. Während das aktuelle Design noch von diskreten Komponenten für Rechenlast, Satellitenbus und Radiatoren ausgeht, skizzieren die Forscher für die Zukunft eine Evolution hin zu hochintegrierten Designs. Ähnlich wie bei Smartphones könnten künftige Systeme Compute-Einheiten, Stromversorgung und Radiatoren in einer einzigen Struktur verschmelzen, um Masse zu sparen.

Weltraum-Rechenzentren jenseits von Satelliten

Die Idee, Rechenleistung ins Weltall zu verlagern ist nicht neu. Das Paper "Space-Based Data Centers and Cooling" aus dem Jahre 2023 hat sogar noch radikalere Ansätze in Betracht gezogen, die eher an Science-Fiction erinnern.

In der im Journal Symmetry veröffentlichten Studie untersuchen die Autoren die theoretische Möglichkeit, Wasser von Asteroiden zur Kühlung von Weltraum-Rechenzentren zu nutzen. Die Idee basiert darauf, dass bestimmte Asteroiden signifikante Mengen an Wasser enthalten. Private Raumfahrzeuge könnten diese Asteroiden ansteuern, Wasser abbauen und dieses als Kühlmittel für Server-Habitate - also komplette Rechenzentren, keine Satellitenschwärme - nutzen.

Die Studie identifizierte mittels Datenbank-Analysen rund 20 Asteroiden, die sowohl wasserreich als auch energetisch günstig von der Erde aus erreichbar wären (weniger als 0,26 Astronomische Einheiten Distanz). Ein solcher Ansatz würde die Abhängigkeit von komplexen Radiatorsystemen verringern, setzt aber eine noch nicht existente Bergbau-Infrastruktur im All voraus.

Read Entire Article