Forscher argumentieren, dass eine mathematische Obergrenze eine perfekte Simulation unmöglich macht
Diese Behauptungen und die breitere öffentliche Reaktion wurden in einer Reihe von Pressegesprächen und Berichterstattungen im Zusammenhang mit der Veröffentlichung des Papers zusammengefasst.
Warum logische Unentscheidbarkeit für die Physik von Bedeutung ist
Vereinfacht gesagt zeigte Gödel, dass es in jedem ausreichend ausdrucksstarken formalen System wahre Aussagen gibt, die das System nicht beweisen kann. Tarski demonstrierte, dass bestimmte semantische Begriffe nicht von innerhalb eines Systems definiert werden können, und Chaitin brachte die Informationstheorie ins Spiel, indem er zeigte, dass viele Zeichenfolgen algorithmisch zufällig sind – ohne eine kürzere algorithmische Beschreibung als die Zeichenfolge selbst. Die Autoren des Papers argumentieren, dass diese Art von Grenzen übertragen werden, wenn man versucht, die Raumzeit und physikalische Gesetze auf einem rein algorithmischen Fundament aufzubauen: Man wird auf reale Merkmale der Welt stoßen, die sich einer algorithmischen Herleitung widersetzen. Aus ihrer Sicht verhindert dies die Möglichkeit einer vollständigen, konsistenten, algorithmischen Simulation der Realität.
Wie diese Behauptung zu lesen ist – und ihre Grenzen
Es sind zwei wichtige Einschränkungen zu beachten. Erstens handelt es sich um ein theoretisches, mathematisches Argument darüber, was Berechnungen unter bestimmten formalen Annahmen leisten können und was nicht. Es weist nicht auf eine empirische Anomalie in Daten hin, die die Simulationshypothese im Labor widerlegen würde. Zweitens beruht jedes derartige Argument auf Modellentscheidungen: wie man die Quantengravitation formalisiert, was man als „Algorithmus“ zählt und ob man Merkmale im Simulator zulässt, die außerhalb herkömmlicher Berechnungen liegen. Wenn man diese Prämissen ändert, folgt die Schlussfolgerung möglicherweise nicht mehr.
Stimmen der Skepsis – und warum sie wichtig sind
Schon vor diesem Paper warnten viele Physiker und Philosophen davor, dass die Simulationshypothese eine verwickelte Mischung aus Ingenieurwesen, Metaphysik und Wahrscheinlichkeit ist. Skeptiker weisen darauf hin, dass das Argumentieren von formaler Unentscheidbarkeit hin zu ontologischer Unmöglichkeit Sorgfalt erfordert: Mathematische Unentscheidbarkeit gilt für bestimmte formale Systeme, aber die Natur muss nicht an dieselben syntaktischen Grenzen gebunden sein. Einige Kommentatoren weisen auch auf das langjährige Problem hin, dass Simulationsargumente so gestaltet werden können, dass sie einer Falsifizierung entgehen, indem man das Verhalten des Simulators festlegt: Ein allwissender Simulator könnte jede verräterische Signatur verbergen. Diese konzeptionellen Bedenken bleiben relevant, selbst wenn das neue mathematische Ergebnis korrekt ist.
Beendet dies also die Simulationsdebatte?
Nicht ganz. Was die neue Arbeit bietet, ist eine starke, formale Widerlegung einer gängigen Annahme, die vielen Simulationsbehauptungen zugrunde liegt – nämlich, dass alle Merkmale der Welt im Prinzip auf die Schritte einer Berechnung reduzierbar sind. Wenn man die Annahmen und technischen Schritte des Papers akzeptiert, dann ist eine vollständig algorithmische Simulation unmöglich. Aber die breitere kulturelle Frage – ob eine andere Art von „Simulation“ oder eine geschichtete Ontologie wahr sein könnte – ist widerstandsfähiger. Man kann immer Simulatoren postulieren, die mit nicht-algorithmischen Mitteln arbeiten oder das einschränken, was sie zu replizieren versuchen. Das Gespräch verschiebt sich mit anderen Worten: von der Frage, ob eine Simulation in der Praxis möglich ist, hin zur Frage, welche Arten von metaphysischen Modellen mit der aktuellen Mathematik und Physik vereinbar sind.
Warum dies über nächtliche Spekulationen hinaus wichtig ist
Das Paper berührt Themen mit unmittelbaren intellektuellen Konsequenzen. Es setzt sich mit dem Trend auseinander, Information und Berechnung als die Grundbausteine der Realität zu betrachten – ein Ansatz, der zwar Erfolge verzeichnet hat, von dem diese Arbeit jedoch argumentiert, dass er nicht das letzte Wort sein kann. Es ist auch von Bedeutung dafür, wie Wissenschaftler und Technologen weitreichende Behauptungen über die Zukunft von Simulationen, virtuellen Welten und künstlicher Intelligenz formulieren. Wenn es prinzipielle Grenzen dafür gibt, was algorithmische Systeme darstellen können, dann könnten einige Arten wissenschaftlicher Erklärungen oder synthetischen Bewusstseins für jede simulationsbasierte Strategie grundsätzlich unerreichbar sein.
Wie es für die Wissenschaftler von hier aus weitergeht
Wie bei jeder ehrgeizigen theoretischen Behauptung ist eine weitere Überprüfung unvermeidlich. Andere Forscher werden die formalen Annahmen des Papers untersuchen, prüfen, ob die mathematischen Reduktionen korrekt auf physikalische Modelle abgebildet werden, und erforschen, ob schwächere oder alternative Versionen der „Simulation“ der Kritik standhalten. So schreitet die theoretische Physik voran: Ein kühner mathematischer Vorschlag eröffnet eine Debatte, die entweder unser Vertrauen in das Ergebnis stärkt oder die genauen Prämissen identifiziert, an denen es scheitert.
Für den Moment leistet das Paper etwas Nützliches: Es erzwingt eine schärfere Unterscheidung zwischen zwei Fragen, die oft vermischt werden – ob wir überzeugende simulierte Welten bauen könnten und ob die Art der totalen, algorithmischen Replikation, die eine wörtliche Simulationshypothese impliziert, mathematisch zulässig ist. Nach der aktuellen Lesart der Autoren lautet die Antwort auf die zweite Frage zumindest: Nein. Ob das die weitere metaphysische Debatte klärt, bleibt der Physik, der Philosophie und der Zeit überlassen.
— James Lawson, Dark Matter
Kommentare
Noch keine Kommentare. Seien Sie der Erste!