Naukowcy argumentują, że matematyczny sufit uniemożliwia stworzenie symulacji idealnej
Twierdzenia te oraz szersza reakcja opinii publicznej zostały podsumowane w serii briefingów prasowych i relacji medialnych związanych z publikacją artykułu.
Dlaczego logiczna nierozstrzygalność ma znaczenie dla fizyki
Mówiąc najprościej, Gödel wykazał, że w każdym dostatecznie bogatym systemie formalnym istnieją prawdziwe twierdzenia, których system nie jest w stanie udowodnić. Tarski dowiódł, że pewnych pojęć semantycznych nie da się zdefiniować z wnętrza systemu, a Chaitin dołączył do tego teorię informacji, wykazując, że wiele ciągów jest algorytmicznie losowych – co oznacza, że nie istnieje krótszy opis algorytmiczny niż sam ciąg. Autorzy publikacji argumentują, że próba zbudowania czasoprzestrzeni i praw fizyki na czysto algorytmicznym fundamencie sprawia, iż ograniczenia te przenoszą się na rzeczywistość: napotykamy realne cechy świata, które opierają się algorytmicznemu wyprowadzeniu. W ich ocenie blokuje to możliwość stworzenia kompletnej, spójnej i algorytmicznej symulacji rzeczywistości.
Jak rozumieć tę tezę – i jakie są jej ograniczenia
Należy pamiętać o dwóch istotnych zastrzeżeniach. Po pierwsze, jest to argument teoretyczno-matematyczny dotyczący tego, co obliczenia mogą, a czego nie mogą zrobić przy określonych założeniach formalnych. Nie wskazuje on na żadną empiryczną anomalię w danych, która pozwoliłaby sfałszować hipotezę symulacji w laboratorium. Po drugie, każdy taki argument opiera się na wyborach modelowych: sposobie sformalizowania grawitacji kwantowej, definicji tego, co uznajemy za „algorytm”, oraz dopuszczeniu w symulatorze cech wykraczających poza konwencjonalne obliczenia. Zmiana tych przesłanek może sprawić, że wniosek przestanie być aktualny.
Głosy sceptyków – i dlaczego są ważne
Jeszcze przed publikacją tego artykułu wielu fizyków i filozofów ostrzegało, że hipoteza symulacji to zawiła mieszanka inżynierii, metafizyki i rachunku prawdopodobieństwa. Sceptycy podkreślają, że przejście od formalnej nierozstrzygalności do ontologicznej niemożliwości wymaga ostrożności: matematyczna nierozstrzygalność dotyczy konkretnych systemów formalnych, ale natura nie musi być związana tymi samymi ograniczeniami składniowymi. Niektórzy komentatorzy zauważają również od dawna znany problem: argumenty za symulacją można skonstruować tak, by unikały falsyfikacji poprzez określenie zachowania symulatora – wszechwiedzący symulator mógłby ukryć wszelkie charakterystyczne ślady. Te obawy koncepcyjne pozostają aktualne, nawet jeśli nowy wynik matematyczny jest poprawny.
Czy to zatem kończy debatę o symulacji?
Nie do końca. Nowa praca oferuje solidne, formalne zbicie powszechnego założenia leżącego u podstaw wielu twierdzeń o symulacji – a mianowicie, że wszystkie cechy świata dają się w zasadzie zredukować do kroków obliczeniowych. Jeśli zaakceptujemy założenia i kroki techniczne zawarte w artykule, to w pełni algorytmiczna symulacja staje się niemożliwa. Jednak szersze pytanie kulturowe – o to, czy jakiś inny rodzaj „symulacji” lub warstwowej ontologii może być prawdziwy – jest bardziej odporne na krytykę. Zawsze można założyć istnienie symulatorów działających w sposób niealgorytmiczny lub ograniczających zakres replikacji. Innymi słowy, dyskusja ewoluuje: od pytania, czy symulacja jest możliwa w praktyce, do pytania, jakie modele metafizyczne są zgodne z obecną matematyką i fizyką.
Dlaczego ma to znaczenie wykraczające poza nocne spekulacje
Artykuł dotyka kwestii o bezpośrednich konsekwencjach intelektualnych. Konfrontuje się z trendem traktowania informacji i obliczeń jako pierwotnej materii rzeczywistości – podejścia, które odniosło pewne sukcesy, ale które według autorów tej pracy nie może być ostatecznym wyjaśnieniem. Ma to również znaczenie dla sposobu, w jaki naukowcy i technolodzy formułują odważne twierdzenia o przyszłości symulacji, światów wirtualnych i sztucznej inteligencji. Jeśli istnieją pryncypialne ograniczenia tego, co systemy algorytmiczne mogą reprezentować, to niektóre rodzaje wyjaśnień naukowych lub syntetycznej świadomości mogą być zasadniczo nieosiągalne dla jakiejkolwiek strategii opartej na symulacji.
Co dalej dla świata nauki?
Jak w przypadku każdego ambitnego twierdzenia teoretycznego, dalsza wnikliwa analiza jest nieunikniona. Inni badacze będą zgłębiać formalne założenia artykułu, sprawdzać, czy matematyczne redukcje poprawnie odwzorowują modele fizyczne, i badać, czy słabsze lub alternatywne wersje „symulacji” przetrwają tę krytykę. Tak właśnie rozwija się fizyka teoretyczna: śmiała matematyczna sugestia otwiera pole do debaty, która albo wzmacnia nasze zaufanie do wyniku, albo wskazuje precyzyjne przesłanki, przy których on zawodzi.
Na razie publikacja ta robi coś pożytecznego: wymusza wyraźniejsze rozróżnienie między dwoma pytaniami, które często są ze sobą mieszane – czy moglibyśmy zbudować przekonujące symulowane światy oraz czy rodzaj całkowitej, algorytmicznej replikacji, sugerowany przez dosłowną hipotezę symulacji, jest matematycznie dopuszczalny. Zgodnie z obecną interpretacją autorów, na to drugie pytanie odpowiedź brzmi: nie. Czy to rozstrzyga szerszą debatę metafizyczną? O tym zadecyduje fizyka, filozofia i czas.
— James Lawson, Dark Matter
Comments
No comments yet. Be the first!