Starcloud, ein in Washington ansässiges Startup für Orbital-Computing, hat offiziell einen Antrag bei der Federal Communications Commission (FCC) für eine gewaltige Konstellation von 88.000 Satelliten eingereicht. Diese sollen als Hochleistungs-Rechenzentren im niedrigen Erdorbit (LEO) fungieren. Durch die Verlagerung rechenintensiver Aufgaben wie dem Training von Künstlicher Intelligenz (KI) in den Weltraum beabsichtigt das Unternehmen, das Vakuum des Alls für passive Kühlung und direkte Solarenergie zu nutzen und so die physischen und ökologischen Einschränkungen zu umgehen, die terrestrische Rechenzentren derzeit behindern.
Wie funktioniert das orbitale Rechenzentrum von Starcloud?
Das orbitale Rechenzentrum von Starcloud integriert GPU-Cluster mit hoher Dichte, persistenten Speicher und proprietäre Wärmemanagementsysteme in Satelliten, die in sonnensynchronen Umlaufbahnen operieren, um eine kontinuierliche Stromversorgung und Strahlungskühlung zu gewährleisten. Diese Satelliten sind über optische Inter-Satelliten-Verbindungen vernetzt, was es ihnen ermöglicht, große Datenmengen in Echtzeit sowohl für orbitale als auch für terrestrische Nutzer zu verarbeiten. Diese Infrastruktur umgeht traditionelle Downlink-Engpässe, indem sie sicheres, skalierbares Cloud-Computing direkt im Vakuum des Weltraums bereitstellt.
Starcloud, ehemals bekannt als Lumen Orbit, entwirft seine Architektur so, dass sie dem exponentiellen Wachstum der KI-gesteuerten Rechenanforderungen gerecht wird. Laut dem FCC-Antrag des Unternehmens vom 13. März 2026 werden diese orbitalen Einrichtungen in schmalen Schalen in Höhen zwischen 600 und 850 Kilometern betrieben. Durch die Beibehaltung einer sonnensynchronen Dusk-Dawn-Ausrichtung können die Satelliten eine nahezu kontinuierliche Stromerzeugung erreichen, was für die hohen Energieanforderungen moderner großer Sprachmodelle (LLMs) und GPU-intensiver Arbeitslasten unerlässlich ist.
Das technische Grundgerüst stützt sich stark auf die Breitband-Integration mit bestehenden Anbietern. Während die Satelliten die rechenintensive Arbeit übernehmen, werden sie Laserverbindungen nutzen, um mit etablierten Netzwerken wie Starlink von SpaceX, Project Kuiper von Amazon und Tera Wave von Blue Origin zu kommunizieren. Dieser hybride Ansatz ermöglicht es Starcloud, sich auf die Hardware der Berechnung – wie den Nvidia H100-Prozessor – zu konzentrieren, während die globale Konnektivität bestehender Mega-Konstellationen für die Datenübermittlung genutzt wird.
Warum ist der Weltraum besser für Rechenzentren geeignet als die Erde?
Der Weltraum bietet einen unendlichen Kühlkörper für die Strahlungskühlung und ständigen Zugang zu Solarenergie, wodurch der enorme Wasserverbrauch und die Batteriespeicherung, die auf der Erde erforderlich sind, entfallen. Diese Umgebung ermöglicht eine zehnfache Reduzierung der operativen Energiekosten und vermeidet terrestrische Einschränkungen wie Landknappheit, Instabilität des Stromnetzes und Kohlenstoffemissionen. Folglich können orbitale Rechenzentren viel schneller in den Gigawatt-Bereich skalieren als bodengebundene Anlagen.
Der Hauptgrund für die Verlagerung von Rechenkapazitäten in den LEO ist das passive Wärmemanagement, das durch das Vakuum des Weltraums ermöglicht wird. Terrestrische Rechenzentren stehen derzeit vor massiven Hindernissen aufgrund der enormen Hitze, die von KI-Chips erzeugt wird, was Millionen von Litern Wasser und komplexe HVAC-Systeme erfordert. Starcloud argumentiert, dass die Stationierung im Weltraum der kosteneffizienteste Weg ist, um Rechenleistung in diesem Jahrzehnt bereitzustellen, da die Infrastrukturbeschränkungen wegfallen, die den Ausbau von bodengebundenen Rechenzentren normalerweise um Jahre verzögern.
Darüber hinaus zielt die Starcloud-Konstellation darauf ab, eine „souveräne Cloud“ bereitzustellen, die außerhalb traditioneller nationaler Grenzen existiert und einzigartige Sicherheits- und Zugänglichkeitsvorteile bietet. Die Roadmap des Unternehmens umfasst den Einsatz von Starcloud-4, bestehend aus massiven Satelliten, die mit dem SpaceX Starship gestartet werden. Diese zukünftigen Einheiten sollen Solarpanels mit einer Spannweite von vier Kilometern auf jeder Seite besitzen und eine atemberaubende Kapazität von fünf Gigawatt pro Rechenzentrum-Satellit unterstützen – eine Größenordnung, die heute an einem einzelnen terrestrischen Standort praktisch unmöglich zu erreichen ist.
Was geschah mit der Nvidia H100-GPU auf dem ersten Satelliten von Starcloud?
Die Nvidia H100-GPU auf Starcloud-1 führte erfolgreich das erste orbitale Training eines großen Sprachmodells durch und betrieb nach ihrem Start im November 2025 das KI-Modell Gemini von Google. Dieser 60 Kilogramm schwere Teststand demonstrierte, dass kommerzielle Standard-Hochleistungshardware (COTS) den Start überstehen und im LEO effektiv arbeiten kann. Die Mission bestätigte, dass die H100 eine 100-mal höhere Rechenleistung bietet als jede zuvor im Weltraum eingesetzte GPU.
Der Erfolg der Starcloud-1-Mission, die Teil eines SpaceX-Rideshare-Fluges war, diente als wichtiger Machbarkeitsnachweis für die zukünftige Flotte des Unternehmens. Trotz der harten Strahlungsumgebung im Weltraum blieb die Nvidia H100 betriebsbereit, was es dem Team ermöglichte, komplexe Inferenzaufgaben mit Daten von Synthetic Aperture Radar (SAR) durchzuführen. Diese Fähigkeit deutet darauf hin, dass zukünftige Satelliten Satellitenbilder lokal verarbeiten könnten und nur die entscheidenden Erkenntnisse anstatt massiver Rohdatendateien zur Erde zurücksenden.
Aufbauend auf diesen Ergebnissen bereitet sich das Unternehmen auf Starcloud-2 vor, sein erstes vollständig kommerzielles Raumfahrzeug, das für einen Start im Jahr 2027 geplant ist. Diese nächste Iteration wird einen Cluster von Prozessoren gepaart mit proprietären Thermo- und Energiesystemen im Smallsat-Formfaktor enthalten. Ziel ist es, die Strahlenhärtung und die Energieeffizienz der Hardware zu verfeinern, bevor sie auf die volle, im jüngsten FCC-Antrag genehmigte Konstellation von 88.000 Satelliten hochskaliert wird.
Regulatorische und Nachhaltigkeits-Herausforderungen für Mega-Konstellationen
Der Umfang des Starcloud-Vorschlags macht ihn zu einem der größten Satellitenanträge in der Geschichte, der nur von SpaceX' jüngstem Antrag für eine Konstellation von einer Million Satelliten übertroffen wird. Die Verwaltung einer Flotte von 88.000 Objekten erfordert eine strikte Einhaltung der orbitalen Sicherheit und des Weltraumverkehrsmanagements. Starcloud hat sich zu mehreren Best Practices verpflichtet, um diese Risiken zu mindern, darunter:
- Vollständige Verglühbarkeit: Die Satelliten sind so konstruiert, dass sie beim Wiedereintritt in die Atmosphäre vollständig verglühen und keine Trümmer hinterlassen.
- Helligkeitsminderung: Koordination mit der Astronomie-Gemeinschaft, um die Lichtverschmutzung zu minimieren und wichtige Beobachtungen zu schützen.
- Anfängliche Test-Umlaufbahnen (Initial Checkout Orbits): Aussetzen der Satelliten in niedrigeren Höhen, um die Funktionalität sicherzustellen, bevor sie in die operativen Umlaufbahnen angehoben werden.
- Basis der Nicht-Interferenz: Nutzung des Ka-Band-Spektrums für Telemetrie und Steuerung in einer Weise, die bestehende Kommunikation nicht stört.
Wie Jeff Foust für SpaceNews schreibt, ist die Annahme des Antrags durch die FCC nur der erste Schritt auf einem langen regulatorischen Weg. Das in Redmond ansässige Unternehmen muss beweisen, dass eine so dichte Konstellation das Problem des Weltraummülls nicht verschlimmern wird. Durch die Konzentration auf sonnensynchrone Umlaufbahnen und die Sicherstellung, dass defekte Einheiten schnell wieder in die Atmosphäre eintreten, will sich Starcloud als verantwortungsvoller Verwalter der „bald intensiv genutzten Orbits“ zwischen 600 und 850 Kilometern etablieren.
Der Übergang von kommunikationsfokussierten Satelliten zu einer rechenfokussierten orbitalen Infrastruktur stellt einen Paradigmenwechsel in der Weltraumnutzung dar. Sollte Starcloud sein 88.000-Satelliten-Netzwerk erfolgreich aufbauen, wird es nicht nur den weltweiten KI-Fähigkeiten einen massiven Schub verleihen, sondern auch die Beziehung zwischen Cloud-Computing und ökologischer Nachhaltigkeit neu definieren. Vorerst beobachtet die Branche gespannt, wie das Unternehmen seine Mission für 2027 vorbereitet, die als entscheidender Test für die Machbarkeit von orbitalem Supercomputing im Gigawatt-Maßstab dienen wird.
Kommentare
Noch keine Kommentare. Seien Sie der Erste!