Im Journal of Holography Applications in Physics ist kürzlich eine unaufgeregte Arbeit erschienen, die das versucht, woran Jahrzehnte der Science-Fiction und der philosophischen Träumereien scheiterten: den Stecker der Matrix zu ziehen. Während die Elite der Tech-Industrie das letzte Jahrzehnt damit verbracht hat, darüber zu debattieren, ob wir alle nur Unterprogramme in einem posthumanen Spielplatz sind, hat ein Team um Dr. Mir Faizal vom Campus Okanagan der University of British Columbia beschlossen, die Mathematik zu überprüfen. Ihr Fazit ist eine kalte Dusche für die Simulations-Community: Die fundamentale Struktur der Realität ist logisch unvereinbar mit der Vorstellung, ein Computerprogramm zu sein.
Für diejenigen, die die „Simulationshypothese“ verfolgt haben, seit Nick Bostrom sie 2003 erstmals formalisierte, fühlte sich die Debatte immer eher wie eine säkulare Religion als wie eine technische Untersuchung an. Sie geht davon aus, dass jede hochentwickelte Zivilisation mit wachsender Rechenleistung irgendwann hochpräzise Simulationen ihrer Vorfahren ausführen wird. Statistisch gesehen, so die Theorie, gäbe es Millionen simulierter Universen und nur eine „Basis“-Realität, was es überwältigend wahrscheinlich mache, dass wir diejenigen sind, die auf einer Festplatte leben. Es ist ein eleganter, erschreckend logischer Trick, der die Fantasie von Elon Musk bis hin zu den Schöpfern von ChatGPT beflügelt hat. Doch Faizal und seine internationalen Mitarbeiter, darunter der bekannte Physiker Lawrence M. Krauss, argumentieren, dass diese Logik auf einem grundlegenden Missverständnis darüber beruht, was ein Computer eigentlich ist.
Die Gödel-Falle für digitale Architekten
Der Kern des Arguments der Forscher beruht auf den Unvollständigkeitssätzen von Kurt Gödel, einem Pfeiler der Mathematik des 20. Jahrhunderts, der im Grunde wie ein „Zutritt verboten“-Schild für absolute Logik fungiert. Gödel bewies, dass es in jedem hinreichend komplexen mathematischen System immer Aussagen geben wird, die wahr sind, aber mit den Regeln dieses Systems nicht bewiesen werden können. Wäre das Universum eine Simulation, müsste es zwangsläufig von einem Algorithmus – einer endlichen Menge an Rechenregeln – gesteuert werden. Faizals Team weist jedoch darauf hin, dass die physikalische Realität, insbesondere aus der Perspektive der Quantengravitation, Eigenschaften aufweist, die nicht-algorithmisch sind.
Um ein Universum zu simulieren, benötigt man einen vollständigen Regelsatz, der jeden möglichen Zustand und jede mögliche Interaktion abbilden kann. Wenn Gödel jedoch recht hat, kann für ein System, das so komplex ist wie unsere Realität, kein solcher vollständiger Regelsatz existieren. Es gibt eine Lücke zwischen dem, was der „Code“ beschreiben kann, und dem, was tatsächlich geschieht. Die Forscher bezeichnen dies als „nicht-algorithmisches Verständnis“. Es ist die Idee, dass das Universum auf einer Komplexitätsebene funktioniert, die nicht auf eine Reihe von 1en und 0en oder selbst auf die komplexen Qubits eines Quantencomputers reduziert werden kann. Wenn das Universum nicht-algorithmische Prozesse benötigt, um zu funktionieren, dann kann ein Computer – der per Definition eine rein algorithmische Maschine ist – es nicht beherbergen.
Dies ist nicht nur eine philosophische Meinungsverschiedenheit; es ist ein Hardware-Problem. In der klassischen Informatik haben wir es mit Church-Turing-Maschinen zu tun, Systemen, die alles berechnen können, was berechenbar ist. Das Papier der UBC legt nahe, dass die Gesetze der Physik tatsächlich nicht in der von uns angenommenen Weise berechenbar sind. Wir können die Flugbahn einer Rakete oder die Hitze eines Sterns simulieren, weil es sich dabei um Näherungswerte handelt. Aber die Simulation der Entstehung von Raumzeit aus der „Information“ der Quantengravitation erfordert eine Art der Verarbeitung, die die logischen Grenzen jedes auf programmierten Regeln basierenden Systems überschreitet.
Die hohen Kosten digitaler Zwillinge
Während die theoretische Physik über die nicht-algorithmische Natur der Realität debattiert, wettet die Europäische Union derzeit mit Milliarden von Euro darauf, dass wir zumindest Teile davon simulieren können. Die Initiative „Destination Earth“ (DestinE) ist ein Vorzeigeprojekt, das darauf abzielt, einen „digitalen Zwilling“ des Planeten zu erstellen, um den Klimawandel und extreme Wetterereignisse zu überwachen. Es ist ein massives Beschaffungsprojekt, an dem die Europäische Weltraumorganisation (ESA) und das Europäische Zentrum für mittelfristige Wettervorhersage (ECMWF) beteiligt sind. Das Projekt beruht auf der Annahme, dass man Erdsysteme mit perfekter Genauigkeit nachbilden kann, wenn man nur genügend Petaflops an Rechenleistung auf ein Problem wirft.
Faizals Ergebnisse deuten jedoch auf eine drohende Grenze dieser Ambitionen hin. Wenn die Realität grundlegend nicht-algorithmisch ist, wird jede Simulation – egal wie viele GPU-Cluster in Bonn oder Bologna wir darauf ansetzen – irgendwann an eine Mauer der „irreduziblen Komplexität“ stoßen. Wir sehen das bereits bei der Wettervorhersage, wo die Kluft zwischen einem Modell und der tatsächlichen Atmosphäre nicht nur eine Frage von mehr Daten ist, sondern von chaotischen Variablen, die mathematisch möglicherweise nicht „vorberechenbar“ sind. Brüssel finanziert vielleicht den raffiniertesten Spiegel, der je gebaut wurde, aber die UBC-Forschung legt nahe, dass der Spiegel niemals wirklich zu dem Ding werden kann, das er reflektiert.
In Deutschland, wo die Halbleiter-Lieferkette oft unter dem Gesichtspunkt der industriellen Souveränität betrachtet wird, ist die Vorstellung, dass das Universum kein Computer ist, seltsam tröstlich. Wäre die Welt eine Simulation, wäre das mächtigste Wesen derjenige, dem die Serverfarm gehört. Nach dem aktuellen Stand der Chipherstellung wäre dies wahrscheinlich ein Unternehmen in Santa Clara oder eine staatlich geförderte Fabrik in Hsinchu. Indem die Mathematik beweist, dass das Universum kein Programm ist, stellt sie die „Physik“ der realen Welt – ressourcenintensiv, chaotisch und grundlegend unkontrollierbar – effektiv wieder an ihre primäre Stelle.
Kann Information ohne Code existieren?
Einer der nuancierteren Punkte in der Arbeit betrifft die Rolle der Information. Die moderne Physik, insbesondere das im Titel der Zeitschrift erwähnte holografische Prinzip, legt nahe, dass das Universum aus Information besteht. Dies wurde oft als Beweis für die Simulationstheorie angeführt: Wenn alles nur Information ist, ist es dann nicht einfach Software? Die Forscher argumentieren, dass dies ein Kategorienfehler sei. Information im physikalischen Sinne – die Zustände von Quantenteilchen – ist nicht dasselbe wie digitale Information, die in einer Datenbank gespeichert ist.
Dies verleiht dem „Quantenvorteil“, den Unternehmen wie IQM in Finnland oder Pasqal in Frankreich anstreben, eine andere Wendung. Wir bauen keine Computer, um die Realität zu simulieren; wir bauen Maschinen, die versuchen, genau die nicht-algorithmischen Lücken zu nutzen, die Faizal identifiziert. Das Ziel ist es, die „Seltsamkeit“ der Quantenmechanik – jene Teile, die in einem klassischen Computer keinen Sinn ergeben – zur Erledigung von Aufgaben zu nutzen. Aber selbst ein Quantencomputer ist ein logisches System. Er operiert immer noch innerhalb der Grenzen dessen, was mathematisch strukturiert werden kann.
Das Ende der Religion aus dem Silicon Valley
Die Simulationshypothese war schon immer deshalb beliebt, weil sie ein Gefühl von Ordnung vermittelt. Wenn wir uns in einer Simulation befinden, dann gibt es einen Schöpfer, einen Zweck und vielleicht sogar einen „Debug“-Modus. Sie verwandelt die erschreckende Weite des Kosmos in etwas Vertrautes: ein Produkt. Sie ist der ultimative Ausdruck der Hybris der Tech-Industrie – der Glaube, dass alles, von der Geburt eines Sterns bis zum Gefühl eines ersten Kusses, letztlich auf einen patentierbaren Prozess reduzierbar ist.
Die Tech-Milliardäre mögen weiterhin Forschung finanzieren, die nach „Störungen in der Matrix“ sucht oder nach Wegen, aus der Simulation „auszubrechen“, aber sie jagen wahrscheinlich Geistern hinterher. Das Universum versäumt es nicht, seine Texturen zu laden; es arbeitet lediglich auf einer Ebene mathematischer Komplexität, der unsere binäre Logik egal ist. Es ist ein Schlag gegen das Ego des Programmierers, aber ein Sieg für den Physiker. Das Universum ist kein Computer, und genau deshalb funktioniert es.
Europa hat Jahrzehnte damit verbracht, das perfekte Modell der Welt zu bauen. Es stellt sich heraus, dass der einzige Weg, das Universum wirklich zu verstehen, darin besteht, darin zu leben, anstatt zu versuchen, es zu kompilieren. Die Forschung ist eine Erinnerung daran, dass man zwar den Regen simulieren kann, aber den Computer niemals richtig nass bekommt.
Kommentare
Noch keine Kommentare. Seien Sie der Erste!