Melvin Vopsons forskning vid University of Portsmouth började inte med en filosofiexamen, utan med det specifika, irriterande sätt som SARS-CoV-2-mutationer uppför sig på. Medan resten av världen letade efter ett vaccin, studerade Vopson virusets informationsinnehåll. Han lade märke till något som trotsade de stökiga, kaotiska förväntningarna hos biologisk evolution: virusets fysikaliska informationsentropi ökade inte. Den minskade. I den klassiska termodynamikens värld tenderar system mot oordning. I Vopsons data liknade universum mindre en vild skog och mer en programuppdatering som optimerades för en mindre hårddisk.
Denna observation ledde till vad Vopson kallar den andra huvudsatsen för infodynamik (Second Law of Infodynamics). Det är ett provocerande, kanske till och med kätteri-liknande påstående om att informationsentropin i vilket system som helst måste förbli konstant eller minska över tid. Om detta låter som motsatsen till termodynamikens andra huvudsats, så beror det på att det är just vad det är. Men för dem som för närvarande är besatta av tanken att vi lever inuti en väldig, beräkningsbar konstruktion, är Vopsons lag det avgörande beviset. Den antyder att universum styrs av ett mandat att minimera information – en process som varje mjukvaruingenjör i Berlin eller Silicon Valley skulle känna igen som datakomprimering.
Den termodynamiska skatten på existensen
Argumentet för en simulerad verklighet lider vanligtvis av en brist på fysiska bevis och driver istället iväg in i en värld av spekulationer i studentrum sena nätter. Vopson förankrar dock sin teori i Landauer-principen. Rolf Landauers princip, som etablerades på 1960-talet, postulerar att raderingen av en enskild bit information frigör en liten, mätbar mängd värme. Det är bron mellan bitarnas abstrakta värld och joulens fysiska värld. I ett europeiskt sammanhang, där energiförbrukningen för datacenter i Frankfurt och Dublin numera är en fråga om nationell säkerhet och industripolitik, är Landauer-principen inte längre en teoretisk kuriositet. Det är en post i en budget.
Om information har massa och energi – en hypotes som Vopson för närvarande försöker testa – då skulle hela universum kunna ses som en övning i datahantering. Den symmetri vi ser i naturen, från snöflingors hexagonala gitter till galaxernas spiralarmar, skulle kunna tolkas inte som 'skönhet', utan som ett mått på effektivitet. Symmetri är lättare att koda. Det krävs mindre data för att beskriva en cirkel än en taggig, oregelbunden sten. För förespråkare av simuleringsteorin är det faktum att vårt universum följer eleganta matematiska lagar inget mirakel; det är ett tecken på en utvecklare som försöker spara på omkostnaderna.
Den matematiska väggen vid UBC Okanagan
Medan 'infodynamik-lägret' ser kod när de betraktar universums elegans, har en grupp fysiker vid University of British Columbia Okanagan nyligen nått den motsatta slutsatsen genom att använda det verktyg som simuleringsteorin förlitar sig på: matematik. Deras forskning, som publicerades sent under 2025, behandlar 'teckenproblemet' (Sign Problem) i kvant-Monte Carlo-simuleringar. Detta är inte en filosofisk oenighet; det är en hård vägg inom beräkningskomplexitet som antyder att universum helt enkelt är för svårt för att kunna förfalskas.
Teamet vid UBC Okanagan visade att i takt med att komplexiteten i ett kvantsystem ökar – specifikt system som involverar många växelverkande partiklar – växer de beräkningsresurser som krävs för att simulera dem exponentiellt. För att simulera även bara några hundra atomer med perfekt noggrannhet skulle du behöva en dator som är större än det observerbara universum. Detta är 'teckenproblemet'. Det är en matematisk glitch som uppstår vid försök att beräkna sannolikheten för kvanttillstånd, där positiva och negativa termer tar ut varandra på ett sätt som kräver oändlig precision för att lösas.
För att universum ska vara en simulering skulle 'hårdvaran' som driver den behöva kringgå själva de komplexitetslagar som vi observerar inom simuleringen. Om 'simulatorerna' använder en genväg för att ta sig förbi teckenproblemet, borde vi se bevis på dessa genvägar – numeriskt 'brus' eller approximationer i den subatomära världen. Hittills har det visat sig att ju djupare vi tittar in i kvantskummet, desto mer 'verkligt' framstår det. Matematiken visar ingen genväg; den visar ett system av så svindlande, ooptimerad komplexitet att vilken förnuftig ingenjör som helst skulle ha övergivit projektet under prototypfasen.
Den europeiska industriella verkligheten av digitala spöken
Fascinationen för simuleringsteorin speglar ofta vår tids tekniska ångest. I Tyskland drivs satsningen på 'suverän teknik' och de massiva subventionerna till Intels fabrik i Magdeburg eller TSMC i Dresden av verkligheten att vi i allt högre grad är beroende av kiselplattan. När vi börjar se universum som en simulering projicerar vi i huvudsak vår nuvarande industriella era på kosmos. Precis som victorianerna såg universum som ett gigantiskt urverk, ser vi det som ett serverrack.
Hypotesen att 'information är fysikalisk' har dock konsekvenser som går långt bortom 'The Matrix'. Om Vopson har rätt om den andra huvudsatsen för infodynamik, skulle det förändra hur vi närmar oss allt från halvledardesign till genomisk sekvensering. Om system naturligt tenderar mot datakomprimering, kanske vi kämpar mot strömmen genom att försöka bygga allt större och mer 'brusiga' datamodeller. Europeiska unionens besatthet av 'den gröna tvillingen' – att digitalisera ekonomin för att spara energi – antar att den digitala versionen av verkligheten är billigare att underhålla än den fysiska. Fysiken, specifikt Landauer-gränsen, antyder att det finns en nedre gräns för den effektiviteten.
Varför vi föredrar simuleringen
Debatten mellan 'komprimerarna' i Portsmouth och 'realisterna' i Okanagan avslöjar en märklig spänning i modern vetenskap. Vi känner oss i allt högre grad obekväma med ett universum som 'bara' är materia och energi. Materia är tungt, dyrt och föremål för tidens långsamma förfall. Information, däremot, känns evig och portabel. Simuleringsteorin är på många sätt en sekulär teologi för den datadrivna tidsåldern. Den erbjuder löftet om en 'utsida', en skapare (även om den skaparen bara är en uttråkad tonåring i en högre dimension) och en anledning till världens matematiska ordning.
Men resultaten från UBC Okanagan fungerar som en kalldusch. De antyder att verkligheten inte är ett billigt trick. 'Teckenproblemet' är ett bevis på den fysiska världens råa, obändiga motståndskraft. Det berättar för oss att universum inte tar den enkla vägen. Det beräknar varje enskild interaktion, varje enskild kvantfluktuation, i realtid, utan någon uppenbar hänsyn till 'minneskostnaden'. Det är ett otroligt ineffektivt sätt att driva en verklighet, vilket är precis varför den sannolikt är verklig. En simulering skulle ha kraschat för länge sedan under vikten av sina egna subatomära detaljer.
Medan vi fortsätter att satsa miljarder på kvantdatorer och AI, försöker vi i praktiken bygga våra egna 'minisimuleringar'. Vi upptäcker, genom linsen av European Chips Act och de skenande elkostnaderna, att information inte är gratis. Oavsett om vi är en komprimerad fil på en kosmisk hårddisk eller en stökig, autentisk samling atomer, förblir skatten densamma. Universum har ingen GPU, och det verkar inte bry sig om våra lagringsbegränsningar. Vi lever i en verklighet som är alldeles för komplex för att vara något annat än sig själv. Det är antingen en tröst eller en skrämmande insikt om vår egen isolering.
Europa har ingenjörerna som kan bygga de sensorer som till slut kommer att bevisa eller motbevisa en bits massa. Det har bara inte bestämt sig för om det vill leva i svaret.
Comments
No comments yet. Be the first!