Beräkningsbaserad alkemi: AI skriver om det periodiska systemet

Physics
Computational Alchemy: AI Rewrites the Periodic Table
Laboratorier hos de stora teknikjättarna använder generativ och ekvivariant AI för att förutsäga miljontals nya stabila kristaller och beteenden på atomnivå, vilket förvandlar materialforskning från ett decennielångt hantverk till en algoritmisk sprint. Denna artikel förklarar hur DeepMind, Meta, Microsoft och USA:s energidepartement bygger modellerna, dataseten och de robotiserade feedbacklooparna bakom det som forskare kallar ”beräkningsbaserad alkemi”.

På en laboratoriebänk av betong i Kalifornien och i enorma GPU-kluster i datacenter håller ett nytt arbetsflöde tyst på att rita om det periodiska systemet. Istället för att kemister långsamt justerar experimentella recept, föreslår stora neurala nätverk atomära arrangemang, beräkningspipeliner med hög genomströmning kontrollerar deras termodynamiska öde, och robotlaboratorier försöker framställa de vinnande designerna på bara några dagar. Resultatet är inget mindre än en kartläggning av den kemiska rymden i industriell skala: miljontals hypotetiska kristaller, hundratusentals som flaggats som termodynamiskt stabila, och en ny vokabulär — ”beräkningsalhemi” — för att genom mjukvara förvandla kisel, litium och kobolt till tekniska uppfinningar.

AI i materiens skala

En av de tidigaste offentliga milstolparna i denna transformation kom från Google DeepMinds materialsatsning, som använde ett grafneuralt tillvägagångssätt kallat GNoME (Graph Networks for Materials Exploration) för att skanna kombinationer av element och gittergeometrier. Systemet förutspådde cirka 2,2 miljoner kandidater för kristallstrukturer, varav omkring 380 000 identifierades som mycket stabila enligt konventionella termodynamiska kriterier. DeepMind släppte de främsta kandidaterna och dokumenterade experimentella uppföljningar som validerade hundratals förutsägelser. Detta illustrerar hur en datadriven loop på några månader kan multiplicera universumet av tillgängliga material, något som tidigare tog århundraden av inkrementella upptäckter.

Metas grupp för fundamental AI-forskning tog en kompletterande väg under 2025: istället för att bara generera kristaller publicerade de massiva atomistiska dataset och förtränade interatomära modeller avsedda att fungera som återanvändbara fysikaliska ”priors”. Datasetet Open Molecules 2025 (OMol25) och Universal Model for Atoms (UMA) tillhandahåller hundratals miljoner beräkningar på DFT-nivå och maskininlärda interatomära potentialer som kan finjusteras eller integreras i nedströms upptäcktspipeliner. Det uttalade målet är att förse forskare med ett färdigt beräkningsmikroskop och ett snabbt kraftfält, så att fler team — inom universitet och startups — kan köra realistiska simuleringar i stor skala utan att behöva äga den superdator som genererade träningsdatan.

Olika arkitekturer, samma uppdrag

Även om rubrikerna kopplar samman dessa ansträngningar, ser de underliggande AI-familjerna olika ut, och skillnaderna är betydelsefulla. DeepMinds GNoME förlitar sig på grafneurala nätverk optimerade för att förutsäga bildningsenergier och föreslå strukturer genom kompositionell och strukturell sökning. Microsoft Research har publicerat två syskonprojekt — MatterGen, en generativ diffusionsmodell som föreslår oorganiska material utifrån målegenskaper, och MatterSim, en inlärd simulator som förutsäger energier och responser över olika element, temperaturer och tryck. Tillsammans beskrivs dessa modeller som ett par av generator och emulator som kan föreslå kandidater och snabbt sålla fram dem in silico.

Att sluta cirkeln: robotar och aktiv inlärning

Förutsägelser ensamma förändrar inte den fysiska världen; det gör syntes och karakterisering. För att nå användbara uppfinningar kopplar laboratorier samman AI-modeller med automatiserade experiment och en aktiv inlärningsloop. En modell föreslår en kandidat, DFT- eller ML-surrogatmodeller med hög genomströmning uppskattar stabilitet och egenskaper, ett automatiserat eller mänskligt labb försöker genomföra syntesen, och det uppmätta resultatet matas tillbaka till modellen som märkt data. DeepMind och andra rapporterar om samarbeten med automatiserade anläggningar — såsom Lawrence Berkeley National Laboratorys autonoma plattformar — som redan har syntetiserat en betydande mängd modellföreslagna material, vilket demonstrerar den praktiska nyttan med upptäckt i en sluten loop. Detta ”lab-in-the-loop”-tillvägagångssätt är vad som omvandlar förutsägelse till produktiv ingenjörskonst.

Denna kombination — generativa modeller, snabba ML-simulatorer och robotik — skapar ett accelererande ”svänghjul”: bättre förutsägelser ger enklare synteser och mer träningsdata, vilket i sin tur förbättrar nästa förutsägelser. Konsekvenserna är påtagliga: det som förr var en flera decennier lång väg från koncept till prototyp kan, i gynnsamma fall, krympa till månader eller några få år.

Politik, beräkningskraft och splittringen kring öppen vetenskap

Dessa förmågor omformar inte bara laboratorieanteckningar utan även politik och industriell strategi. USA:s energidepartement lanserade Genesis Mission i slutet av 2025, en nationell satsning för att kombinera nationella laboratoriers superdatorer, AI-plattformar och automatiserade anläggningar till en enda upptäcktsmotor för prioriteringar inom energi, material och nationell säkerhet. Programmet anslår finansiering och infrastruktur för att bygga delade plattformar och undvika dubblering av de enorma beräkningskostnaderna inom ett fåtal privata laboratorier. Samtidigt fortsätter företag som Google, Meta och Microsoft att sätta sina egna färdplaner — vissa med öppen källkod för kod och dataset, andra genom att hålla modeller och infrastruktur bakom privata moln — vilket skapar en spänning mellan proprietära fördelar och vetenskaplig demokratisering.

Industriella insatser och kortsiktiga mål

Varför spelar detta någon roll utanför laboratorierna? Bättre material är nyckeln till flera industriella omställningar: mer energitäta och säkrare solid state-batterier, perovskit- eller tandemsolceller med högre verkningsgrad, ledare med lägre förluster och till och med nya supraledare som skulle kunna rita om elnät och elektronik. Teknikföretag och nationella program orienterar uttryckligen dessa insatser kring klimatkritiska mål — energilagring i nätkala, effektiva solcellsmaterial och minskat beroende av strategiska mineraler. Den kommersiella kapplöpningen är redan synlig: Microsoft marknadsför MatterGen och MatterSim som verktyg för företag som arbetar med energi och halvledare, medan DeepMind, Meta och andra betonar öppna släpp till communityn och samarbeten som ska slussa in upptäckter i industriell FoU.

Alla lovande kandidater kommer inte att kunna skalas upp. Den dominerande tekniska utmaningen är nu ”lab-to-fab”: att förvandla en DFT-vänlig kristall till ett tillverkningsbart material i industriella volymer, med reproducerbara egenskaper och acceptabel kostnad. Syntesförhållanden, dopning, korngränser och miljöbetingad åldring är alla praktiska detaljer som AI-modeller har svårt att förutsäga perfekt. Det är därför experimentell validering och ingenjörskonst förblir oumbärliga även när modellförutsägelserna ökar i antal.

Där transparens och reproducerbarhet kommer in

Det finns verkliga vetenskapliga risker vid sidan av fördelarna. Stora förtränade modeller kan framstå som auktoritativa även när deras felmarginaler är subtila; dataset och surrogatmodeller kan innehålla fördomar eller förenklingar som leder till icke-reproducerbara påståenden om laboratorier inte kan replikera syntesvägen exakt. Responsen från forskarsamhället har betonat öppna dataset, delade benchmarks och oberoende syntesinsatser just för att undvika en upprepning av de reproducerbarhetsproblem som har plågat andra AI-drivna fält.

Det arbetet sker parallellt med arkitektonisk utveckling av ekvivarianta nätverk, överförbara maskininlärda interatomära potentialer och strategier för aktiv inlärning som kvantifierar osäkerhet — tekniska steg utformade för att göra förutsägelser inte bara snabbare utan även mer tolkningsbara och tillförlitliga. Resultatet är en blandning av datavetenskap, kondenserade materiens fysik och laboratorie-automation som mer liknar en ingenjörsdisciplin än en samling smarta hack.

Oavsett vilken etikett man sätter på det — beräkningsalhemi, AI för vetenskap eller atomistisk ingenjörskonst — handlar den våg som brutit fram under de senaste två åren om att skala upp upptäcktsprocessen. Vinnarna blir de organisationer som kombinerar utmärkta modeller, tillgängliga dataset, reproducerbara experimentella pipeliner och rättvis tillgång till beräkningskraft. Nästa stora rubrik kan vara ett kommersiellt gångbart solid state-batteri eller en supraledare i rumstemperatur som föreslagits av en modell och förverkligats i en fabrik; fram till dess förblir arbetet ett tvärvetenskapligt maraton som springs i GPU-hastighet.

Källor

  • Nature (GNoME-forskningsartikel om AI-upptäckt av miljontals kristallstrukturer)
  • arXiv / OMol25 (Datasetet Open Molecules 2025 och UMA-modellen)
  • Pressmaterial från Lawrence Berkeley National Laboratory (Berkeley Lab news center)
  • Publikationer och blogginlägg från Microsoft Research (MatterGen och MatterSim)
  • Pressmeddelanden från USA:s energidepartement och dokumentation om Genesis Mission
Mattias Risberg

Mattias Risberg

Cologne-based science & technology reporter tracking semiconductors, space policy and data-driven investigations.

University of Cologne (Universität zu Köln) • Cologne, Germany

Readers

Readers Questions Answered

Q Vad är beräkningsmässig alkemi i det här sammanhanget och vilka AI-verktyg driver den?
A Beräkningsmässig alkemi syftar på att använda AI för att kartlägga den kemiska rymden och omvandla mjukvarugenererade designer till verkliga material genom att snabbt föreslå atomarrangemang, testa deras termodynamiska stabilitet och validera förutsägelser genom simuleringar och experiment. Arbetet kombinerar DeepMinds graf-neurala nätverk (GNoME), Microsofts MatterGen och MatterSim samt OMol25/UMA-data med automatiserad, robotiserad syntes för att sluta cirkeln.
Q Vilken milstolpe uppnådde DeepMind med GNoME?
A En milstolpe i DeepMinds materialsatsning var användningen av GNoME för att skanna kombinationer av grundämnen och gittergeometrier, vilket resulterade i förutsägelser om cirka 2,2 miljoner potentiella kristallstrukturer, varav omkring 380 000 identifierades som mycket stabila enligt konventionella termodynamiska kriterier. Teamet släppte de främsta kandidaterna och dokumenterade experimentella uppföljningar som validerade hundratals förutsägelser, vilket illustrerar en datadriven loop som accelererar upptäcktsprocessen från århundraden till månader.
Q Hur skapar AI-modeller och robotik en sluten loop mellan förutsägelse och experiment?
A En modell föreslår en kandidat, varpå högkapacitets-DFT eller ML-surrogat uppskattar dess stabilitet och egenskaper, och automatiserade eller mänskliga laboratorier försöker genomföra syntesen. De uppmätta resultaten matas tillbaka som märkt data för att återträna modellerna. Samarbeten med autonoma plattformar, såsom Lawrence Berkeley National Laboratory, demonstrerar den praktiska nyttan med "lab-in-the-loop"-upptäckter, vilket driver ett självförbättrande svänghjul.
Q Vilka är de politiska och industriella konsekvenserna och de främsta utmaningarna framöver?
A De politiska och industriella konsekvenserna formas av Genesis Mission, ett DOE-program som inleddes 2025 för att sammanfoga superdatorer, AI-plattformar och automatiserade anläggningar till en delad upptäcktsmotor för energi, material och nationella säkerhetsprioriteringar. Samtidigt balanserar företag öppen källkod mot privata färdplaner, vilket skapar en spänning mellan demokratisering och äganderättsliga fördelar. Den centrala utmaningen förblir "lab-to-fab": att omvandla DFT-vänliga kristaller till tillverkningsbara material i stor skala med reproducerbara egenskaper och till överkomliga kostnader.

Have a question about this article?

Questions are reviewed before publishing. We'll answer the best ones!

Comments

No comments yet. Be the first!