W czasopiśmie Journal of Holography Applications in Physics ukazał się niedawno spokojny artykuł, który próbuje dokonać tego, czego przez dekady nie udało się science fiction ani filozofii spod znaku „stoner thoughts”: wyciągnięcia wtyczki z Matrixa. Podczas gdy elita branży technologicznej spędzała ostatnią dekadę na debatach, czy wszyscy jesteśmy tylko podprogramami w postludzkim kojcu, zespół pod kierownictwem dr. Mira Faizala z kampusu Okanagan University of British Columbia postanowił sprawdzić matematykę. Ich wniosek jest zimnym prysznicem dla zwolenników teorii symulacji: fundamentalna struktura rzeczywistości jest logicznie niekompatybilna z byciem programem komputerowym.
Dla tych, którzy śledzą „hipotezę symulacji” od czasu, gdy Nick Bostrom sformalizował ją w 2003 roku, debata ta zawsze wydawała się bardziej świecką religią niż dociekaniem technicznym. Zakłada ona, że w miarę wzrostu mocy obliczeniowej każda zaawansowana cywilizacja będzie ostatecznie uruchamiać wysokiej wierności symulacje swoich przodków. Statystycznie rzecz biorąc, istniałyby miliony symulowanych wszechświatów i tylko jedna „bazowa” rzeczywistość, co sprawia, że jest niezwykle prawdopodobne, iż to my żyjemy na dysku twardym. To zgrabny, przerażająco logiczny trik, który zawładnął wyobraźnią wszystkich, od Elona Muska po twórców ChatGPT. Jednak Faizal i jego międzynarodowi współpracownicy, w tym znany fizyk Lawrence M. Krauss, argumentują, że ta logika opiera się na fundamentalnym niezrozumieniu tego, czym w rzeczywistości jest komputer.
Pułapka Gödla dla cyfrowych architektów
Rdzeń argumentacji badaczy opiera się na twierdzeniach o niezupełności Kurta Gödla, filarze matematyki XX wieku, który w istocie funkcjonuje jako znak „zakaz wjazdu” dla absolutnej logiki. Gödel udowodnił, że w każdym wystarczająco złożonym systemie matematycznym zawsze będą istniały zdania, które są prawdziwe, ale których nie da się udowodnić za pomocą reguł tego systemu. Gdyby wszechświat był symulacją, musiałby być rządzony przez algorytm – skończony zestaw reguł obliczeniowych. Zespół Faizala wskazuje jednak, że rzeczywistość fizyczna, zwłaszcza gdy patrzy się na nią przez pryzmat grawitacji kwantowej, wykazuje właściwości, które są niealgorytmiczne.
Aby zasymulować wszechświat, potrzebujesz pełnego zestawu reguł, które mogą uwzględnić każdy możliwy stan i interakcję. Ale jeśli Gödel ma rację, taki pełny zestaw reguł nie może istnieć dla systemu tak złożonego jak nasza rzeczywistość. Istnieje luka między tym, co „kod” może opisać, a tym, co faktycznie się dzieje. Naukowcy nazywają to „niealgorytmicznym zrozumieniem”. Chodzi o to, że wszechświat funkcjonuje na poziomie złożoności, której nie da się zredukować do serii zer i jedynek, a nawet do złożonych kubitów komputera kwantowego. Jeśli wszechświat wymaga procesów niealgorytmicznych do działania, to z definicji komputer – który jest maszyną czysto algorytmiczną – nie może go hostować.
To nie jest tylko spór filozoficzny; to problem sprzętowy. W klasycznej informatyce mamy do czynienia z maszynami Turinga, systemami, które potrafią obliczyć wszystko, co jest obliczalne. Artykuł UBC sugeruje, że prawa fizyki w rzeczywistości nie są obliczalne w taki sposób, w jaki zakładamy. Możemy symulować trajektorię rakiety czy ciepło gwiazdy, ponieważ są to przybliżenia. Ale symulowanie wyłaniania się samej czasoprzestrzeni z „informacji” grawitacji kwantowej wymaga rodzaju przetwarzania, który wykracza poza logiczne limity każdego systemu zbudowanego na zaprogramowanych regułach.
Wysoki koszt cyfrowych bliźniaków
Podczas gdy środowisko fizyki teoretycznej debatuje nad niealgorytmiczną naturą rzeczywistości, Unia Europejska stawia miliardy euro na to, że możemy przynajmniej zasymulować jej części. Inicjatywa „Destination Earth” (DestinE) to sztandarowy projekt mający na celu stworzenie „cyfrowego bliźniaka” planety w celu monitorowania zmian klimatycznych i ekstremalnych zjawisk pogodowych. Jest to ogromne przedsięwzięcie zakupowe angażujące Europejską Agencję Kosmiczną (ESA) oraz Europejskie Centrum Prognoz Średnioterminowych (ECMWF). Projekt opiera się na założeniu, że jeśli rzucisz wystarczającą liczbę petaflopów mocy obliczeniowej na problem, możesz odtworzyć systemy Ziemi z idealną wiernością.
Jednak odkrycia Faizala sugerują, że ambicje te mają swój kres. Jeśli rzeczywistość jest fundamentalnie niealgorytmiczna, to każda symulacja – bez względu na to, ile klastrów GPU w Bonn czy Bolonii na nią przeznaczymy – ostatecznie napotka ścianę „nieprzywiedlnej złożoności”. Widzimy to już w prognozowaniu pogody, gdzie różnica między modelem a faktyczną atmosferą to nie tylko kwestia większej ilości danych, ale chaotycznych zmiennych, które mogą być matematycznie niemożliwe do „przedobliczenia”. Bruksela może finansować najbardziej wyrafinowane lustro, jakie kiedykolwiek zbudowano, ale badania UBC sugerują, że lustro to nigdy nie stanie się tym, co odbija.
W Niemczech, gdzie łańcuch dostaw półprzewodników często postrzegany jest przez pryzmat suwerenności przemysłowej, myśl, że wszechświat nie jest komputerem, jest dziwnie pocieszająca. Gdyby świat był symulacją, najpotężniejszym bytem byłby ten, kto posiada farmę serwerów. Biorąc pod uwagę obecną trajektorię produkcji chipów, byłby to prawdopodobnie podmiot korporacyjny z Santa Clara lub wspierana przez państwo fabryka w Hsinchu. Dowodząc, że wszechświat nie jest programem, matematyka skutecznie przywraca „fizyczność” prawdziwego świata – zasobochłonną, niechlujną i fundamentalnie niekontrolowalną – na jej pierwotne miejsce.
Czy informacja może istnieć bez kodu?
Jeden z bardziej subtelnych punktów artykułu dotyczy roli informacji. Współczesna fizyka, zwłaszcza zasada holograficzna wspomniana w tytule czasopisma, sugeruje, że wszechświat składa się z informacji. Często wykorzystywano to jako dowód na teorię symulacji: skoro wszystko jest tylko informacją, to z pewnością jest to tylko oprogramowanie? Naukowcy argumentują, że jest to błąd kategorialny. Informacja w sensie fizycznym – stany cząstek kwantowych – nie jest tym samym, co informacja cyfrowa przechowywana w bazie danych.
To rzuca nowe światło na „przewagę kwantową”, do której dążą firmy takie jak IQM w Finlandii czy Pasqal we Francji. Nie budujemy komputerów, by symulować rzeczywistość; budujemy maszyny, które próbują wykorzystać właśnie te niealgorytmiczne luki, które identyfikuje Faizal. Celem jest wykorzystanie „dziwności” mechaniki kwantowej – elementów, które nie mają sensu w komputerze klasycznym – do wykonywania zadań. Ale nawet komputer kwantowy jest systemem logicznym. Nadal operuje w granicach tego, co można matematycznie ustrukturyzować.
Koniec religii Doliny Krzemowej
Hipoteza symulacji zawsze była popularna, ponieważ zapewnia poczucie porządku. Jeśli jesteśmy w symulacji, to znaczy, że istnieje stwórca, cel, a może nawet tryb „debugowania”. Zamienia przerażającą ogromność kosmosu w coś znajomego: produkt. Jest to ostateczny wyraz pychy branży technologicznej – przekonania, że wszystko, od narodzin gwiazdy po uczucie pierwszego pocałunku, można w końcu sprowadzić do opatentowalnego procesu.
Miliarderzy technologiczni mogą nadal finansować badania w poszukiwaniu „błędów w Matrixie” lub sposobów na „wydostanie się” z symulacji, ale prawdopodobnie gonią duchy. Wszechświat nie ma problemów z ładowaniem tekstur; po prostu działa na poziomie matematycznej złożoności, której nie obchodzi nasza logika binarna. To cios dla ego programisty, ale zwycięstwo dla fizyka. Wszechświat nie jest komputerem i właśnie dlatego działa.
Europa spędziła dekady, próbując zbudować idealny model świata. Okazuje się, że jedynym sposobem na prawdziwe zrozumienie wszechświata jest życie w nim, a nie próba jego skompilowania. Te badania przypominają, że choć można symulować deszcz, nigdy nie da się zmoczyć komputera.
Comments
No comments yet. Be the first!