Starcloud planuje orbitalne centrum danych złożone z 88 000 satelitów

Breaking News Technologia
Thousands of glowing futuristic satellites orbiting Earth against a deep space backdrop of vibrant nebulas and bright stars.
4K Quality
Startup Starcloud, zajmujący się przetwarzaniem danych na orbicie, złożył do Federalnej Komisji Łączności (FCC) ambitny wniosek dotyczący megakonstelacji liczącej do 88 000 satelitów. System ma pełnić rolę wysokowydajnych centrów danych na niskiej orbicie okołoziemskiej. Przenosząc intensywne zadania obliczeniowe, takie jak trenowanie AI, w kosmos, firma zamierza wykorzystać chłodzenie próżniowe i bezpośrednią energię słoneczną, omijając ograniczenia infrastruktury naziemnej.

Starcloud, waszyngtoński startup zajmujący się obliczeniami orbitalnymi, oficjalnie złożył wniosek do Federalnej Komisji Łączności (FCC) o zgodę na wyniesienie ogromnej konstelacji 88 000 satelitów, zaprojektowanych jako wysokowydajne centra danych na niskiej orbicie okołoziemskiej (LEO). Przenosząc intensywne zadania obliczeniowe, takie jak trenowanie Sztucznej Inteligencji (AI), w przestrzeń kosmiczną, firma zamierza wykorzystać próżnię do pasywnego chłodzenia oraz bezpośrednią energię słoneczną, skutecznie omijając fizyczne i środowiskowe ograniczenia, które obecnie utrudniają pracę naziemnych centrów danych.

Jak działa orbitalne centrum danych Starcloud?

Orbitalne centrum danych Starcloud integruje klastry GPU o wysokiej gęstości, pamięć trwałą i autorskie systemy zarządzania termicznego w satelitach operujących na orbitach heliosynchronicznych, aby zapewnić ciągłe zasilanie i chłodzenie radiacyjne. Satelity te są połączone siecią za pomocą optycznych łącz międzysatelitarnych, co pozwala im na przetwarzanie dużych wolumenów danych w czasie rzeczywistym zarówno dla użytkowników orbitalnych, jak i naziemnych. Infrastruktura ta omija tradycyjne wąskie gardła transmisji danych (downlink), oferując bezpieczne, skalowalne przetwarzanie w chmurze bezpośrednio w próżni kosmicznej.

Starcloud, dawniej znany jako Lumen Orbit, projektuje swoją architekturę tak, aby sprostać wykładniczemu wzrostowi zapotrzebowania na moc obliczeniową napędzaną przez AI. Zgodnie z wnioskiem złożonym w FCC 13 marca 2026 roku, te orbitalne obiekty będą działać w wąskich powłokach na wysokościach od 600 do 850 kilometrów. Dzięki utrzymaniu orientacji heliosynchronicznej świt-zmierzch, satelity mogą osiągnąć niemal ciągłe generowanie energii, co jest niezbędne dla wysokich wymagań energetycznych nowoczesnych Dużych Modeli Językowych (LLM) i obciążeń intensywnie wykorzystujących jednostki GPU.

Ramy techniczne opierają się w dużej mierze na integracji szerokopasmowej z istniejącymi dostawcami. Podczas gdy satelity będą zajmować się ciężką pracą obliczeniową, będą wykorzystywać łącza laserowe do komunikacji z ustanowionymi sieciami, takimi jak Starlink firmy SpaceX, Project Kuiper Amazona oraz Tera Wave firmy Blue Origin. To hybrydowe podejście pozwala Starcloud skupić się na sprzęcie obliczeniowym – takim jak procesory Nvidia H100 – przy jednoczesnym wykorzystaniu globalnej łączności istniejących megakonstelacji do dostarczania danych.

Dlaczego kosmos jest lepszy dla centrów danych niż Ziemia?

Kosmos oferuje nieskończony radiator dla chłodzenia radiacyjnego i stały dostęp do energii słonecznej, eliminując potrzebę ogromnego zużycia wody i magazynowania energii w akumulatorach, co jest wymagane na Ziemi. Środowisko to pozwala na 10-krotną redukcję operacyjnych kosztów energii i pozwala uniknąć ograniczeń naziemnych, takich jak niedobór gruntów, niestabilność sieci energetycznej i emisja dwutlenku węgla. W rezultacie orbitalne centra danych mogą skalować się do poziomów gigawatowych znacznie szybciej niż obiekty naziemne.

Głównym czynnikiem skłaniającym do przeniesienia obliczeń na LEO jest pasywne zarządzanie termiczne zapewniane przez próżnię kosmiczną. Naziemne centra danych borykają się obecnie z poważnymi przeszkodami z powodu ogromnego ciepła generowanego przez chipy AI, co wymaga milionów litrów wody i złożonych systemów HVAC. Starcloud twierdzi, że wdrożenie w przestrzeni kosmicznej jest najbardziej opłacalnym sposobem na dostarczenie mocy obliczeniowej w tej dekadzie, ponieważ usuwa ograniczenia infrastrukturalne, które zazwyczaj opóźniają ekspansję naziemnych centrów danych o lata.

Co więcej, konstelacja Starcloud ma na celu zapewnienie „chmury suwerennej”, która istnieje poza tradycyjnymi granicami państwowymi, oferując unikalne korzyści w zakresie bezpieczeństwa i dostępności. Harmonogram firmy obejmuje wdrożenie Starcloud-4, składającego się z masywnych satelitów wynoszonych za pomocą rakiety Starship firmy SpaceX. Przewiduje się, że te przyszłe jednostki będą posiadać panele słoneczne o rozpiętości czterech kilometrów z każdej strony, wspierając oszałamiającą wydajność centrum danych wynoszącą pięć gigawatów na jednostkę – skalę praktycznie niemożliwą do osiągnięcia w pojedynczej lokalizacji naziemnej dzisiaj.

Co stało się z procesorem graficznym Nvidia H100 na pierwszym satelicie Starcloud?

Procesor graficzny Nvidia H100 na pokładzie Starcloud-1 z powodzeniem przeprowadził pierwsze orbitalne trenowanie Dużego Modelu Językowego i uruchomił model AI Gemini od Google po wystrzeleniu w listopadzie 2025 roku. Ten 60-kilogramowy poligon doświadczalny wykazał, że komercyjne, gotowe komponenty (COTS) o wysokiej wydajności mogą przetrwać start i efektywnie działać na LEO. Misja potwierdziła, że H100 zapewnia 100-krotnie większą moc obliczeniową niż jakikolwiek procesor graficzny wcześniej rozmieszczony w kosmosie.

Sukces misji Starcloud-1, która była częścią programu SpaceX rideshare, posłużył jako istotny dowód koncepcji dla przyszłej floty firmy. Pomimo trudnego środowiska radiacyjnego w kosmosie, Nvidia H100 pozostała sprawna, umożliwiając zespołowi wykonywanie złożonych zadań wnioskowania na danych z radaru z syntetyczną aperturą (SAR). Ta zdolność sugeruje, że przyszłe satelity mogłyby przetwarzać obrazy satelitarne lokalnie, przesyłając na Ziemię jedynie kluczowe wnioski, zamiast ogromnych, surowych plików danych.

Opierając się na tych wynikach, firma przygotowuje się do misji Starcloud-2, swojego pierwszego w pełni komercyjnego statku kosmicznego, którego start zaplanowano na 2027 rok. Ta kolejna iteracja będzie wyposażona w klastry procesorów sparowane z autorskimi systemami termicznymi i zasilającymi w formacie małego satelity (smallsat). Celem jest dopracowanie utwardzania radiacyjnego sprzętu i wydajności energetycznej przed przeskalowaniem do pełnej konstelacji 88 000 satelitów, na którą złożono wniosek w FCC.

Wyzwania regulacyjne i środowiskowe dla megakonstelacji

Skala propozycji Starcloud plasuje ją wśród największych wniosków satelitarnych w historii, ustępując jedynie niedawnemu wnioskowi SpaceX o konstelację miliona satelitów. Zarządzanie flotą 88 000 obiektów wymaga rygorystycznego przestrzegania zasad bezpieczeństwa orbitalnego i zarządzania ruchem kosmicznym. Starcloud zobowiązało się do stosowania kilku najlepszych praktyk w celu złagodzenia tych ryzyk, w tym:

  • Pełna podatność na spalenie w atmosferze: Satelity są zaprojektowane tak, aby całkowicie spłonąć podczas ponownego wejścia w atmosferę, nie pozostawiając żadnych śmieci.
  • Łagodzenie jasności: Koordynacja ze społecznością astronomiczną w celu zminimalizowania zanieczyszczenia światłem i ochrony kluczowych obserwacji.
  • Początkowe orbity kontrolne: Rozmieszczanie satelitów na niższych wysokościach w celu sprawdzenia ich funkcjonalności przed podniesieniem ich na orbity operacyjne.
  • Zasada niezakłócania pracy innych: Wykorzystanie pasma Ka do telemetrii i sterowania w sposób, który nie zakłóca istniejącej łączności.

Jak napisał Jeff Foust dla SpaceNews, przyjęcie wniosku przez FCC to dopiero pierwszy krok na długiej drodze regulacyjnej. Firma z siedzibą w Redmond musi udowodnić, że tak gęsta konstelacja nie pogorszy problemu śmieci kosmicznych. Koncentrując się na orbitach heliosynchronicznych i zapewniając, że niesprawne jednostki szybko wrócą w atmosferę, Starcloud dąży do ugruntowania swojej pozycji jako odpowiedzialnego zarządcy „wkrótce intensywnie wykorzystywanych orbit” między 600 a 850 kilometrami.

Przejście od satelitów skoncentrowanych na komunikacji do infrastruktury orbitalnej skoncentrowanej na obliczeniach reprezentuje zmianę paradygmatu w wykorzystaniu przestrzeni kosmicznej. Jeśli Starcloud z powodzeniem wdroży swoją sieć 88 000 satelitów, nie tylko zapewni to potężny impuls dla globalnych możliwości AI, ale także zdefiniuje na nowo relację między przetwarzaniem w chmurze a zrównoważonym rozwojem środowiska. Na razie branża z uwagą obserwuje przygotowania firmy do misji w 2027 roku, która posłuży jako ostateczny test wykonalności orbitalnych superkomputerów o skali gigawatowej.

Mattias Risberg

Mattias Risberg

Cologne-based science & technology reporter tracking semiconductors, space policy and data-driven investigations.

University of Cologne (Universität zu Köln) • Cologne, Germany

Readers

Readers Questions Answered

Q Jak działa orbitalne centrum danych firmy Starcloud?
A Orbitalne centrum danych Starcloud integruje klastry GPU, trwałą pamięć masową oraz autorskie systemy termiczne i zasilające w kompaktowych satelitach, takich jak Starcloud-2, operujących na orbicie heliosynchronicznej w celu zapewnienia ciągłego zasilania energią słoneczną i chłodzenia radiacyjnego w przestrzeni kosmicznej. Przetwarza ono ogromne ilości danych ze statków kosmicznych w czasie rzeczywistym, dostarczając użytkownikom kosmicznym analizy AI o niskim opóźnieniu, a użytkownikom naziemnym bezpieczne, suwerenne przetwarzanie w chmurze bez wąskich gardeł w transmisji danych na Ziemię. Satelity łączą się za pomocą łączy laserowych w sieciową konstelację, co pozwala na skalowalne obliczenia.
Q Dlaczego kosmos jest lepszy dla centrów danych niż Ziemia?
A Kosmos oferuje obfitą, tanią energię słoneczną bez konieczności stosowania akumulatorów dzięki stałej ekspozycji na światło słoneczne i wykorzystuje próżnię kosmiczną jako nieskończony radiator do chłodzenia radiacyjnego, co eliminuje zużycie wody i obniża koszty energii nawet 10-krotnie w porównaniu z naziemnymi centrami danych. Pozwala to uniknąć ograniczeń lądowych, takich jak niedobór gruntów, opóźnienia w pozwoleniach, limity sieci energetycznych i wysoka emisja dwutlenku węgla, umożliwiając szybkie wdrażanie systemów na skalę gigawatową. Rozwiązuje to problem zapotrzebowania na energię napędzanego przez AI w sposób zrównoważony.
Q Co się stało z procesorem graficznym Nvidia H100 na pierwszym satelicie Starcloud?
A Nie odnotowano żadnych negatywnych incydentów związanych z GPU Nvidia H100 na satelicie Starcloud-1; został on pomyślnie wystrzelony w listopadzie 2025 roku, stając się najpotężniejszym procesorem graficznym (100-krotnie silniejszym od wcześniejszych GPU kosmicznych) działającym na orbicie. Umożliwiło to historyczne osiągnięcia, takie jak wytrenowanie pierwszego LLM i uruchomienie Gemini w kosmosie, z planami dotyczącymi wnioskowania na podstawie danych SAR. Satelita kontynuuje operacje, przygotowując się do praktycznych obciążeń roboczych, takich jak analiza danych dla Capella Space.

Have a question about this article?

Questions are reviewed before publishing. We'll answer the best ones!

Comments

No comments yet. Be the first!