Op een betonnen labtafel in Californië en op enorme GPU-clusters in datacenters is een nieuwe workflow stilletjes bezig het periodiek systeem te herschrijven. In plaats van chemici die langzaam experimentele recepten verfijnen, stellen grote neurale netwerken atomaire rangschikkingen voor, controleren high-throughput compute-pipelines hun thermodynamische lot, en proberen robotlabs de winnende ontwerpen binnen enkele dagen te realiseren. Het resultaat is niets minder dan een kaart op industriële schaal van de chemische ruimte: miljoenen hypothetische kristallen, waarvan er honderdduizenden als thermodynamisch stabiel zijn aangemerkt, en een nieuw vocabulaire — "computationele alchemie" — om silicium, lithium en kobalt via software om te zetten in technische uitvindingen.
AI op de schaal van materie
Een van de eerste publieke mijlpalen in deze transformatie kwam voort uit de materialeninspanning van Google DeepMind, dat een graph-neural aanpak genaamd GNoME (Graph Networks for Materials Exploration) gebruikte om combinaties van elementen en roostergeometrieën te scannen. Hiermee werden ongeveer 2,2 miljoen kandidaat-kristalstructuren voorspeld, waarvan er zo'n 380.000 als zeer stabiel werden geïdentificeerd volgens conventionele thermodynamische criteria. DeepMind gaf de topkandidaten vrij en documenterde experimentele vervolgstappen die honderden voorspellingen valideerden. Dit illustreert hoe een datagestuurde cyclus in maanden het universum van toegankelijke materialen kan vermenigvuldigen, iets waar voorheen eeuwen van incrementele ontdekkingen voor nodig waren.
De Fundamental AI Research-groep van Meta koos in 2025 een complementaire route: in plaats van alleen kristallen te genereren, publiceerde het enorme atomistische datasets en voorgetrainde interatomaire modellen die bedoeld zijn om te dienen als herbruikbare fysieke priors. De Open Molecules 2025 (OMol25) dataset en het Universal Model for Atoms (UMA) bieden honderden miljoenen berekeningen op DFT-niveau en door machine learning gegenereerde interatomaire potentialen die kunnen worden verfijnd of samengevoegd in downstream ontdekkingspipelines. Het verklaarde doel is om onderzoekers te voorzien van een kant-en-klare computationele microscoop en een snel krachtveld, zodat meer teams — binnen universiteiten en startups — realistische, grootschalige simulaties kunnen uitvoeren zonder de supercomputer te bezitten die de trainingsdata heeft gegenereerd.
Verschillende architecturen, dezelfde missie
Hoewel de krantenkoppen deze inspanningen samenvoegen, zien de onderliggende AI-families er verschillend uit en die verschillen doen ertoe. DeepMind's GNoME vertrouwt op graph neural networks die zijn geoptimaliseerd om vormingsenergieën te voorspellen en structuren voor te stellen via compositionele en structurele zoekopdrachten. Microsoft Research heeft twee zustertrajecten gepubliceerd: MatterGen, een generatief diffusiemodel dat anorganische materialen voorstelt op basis van doel-eigenschappen, en MatterSim, een getrainde simulator die energieën en reacties voorspelt over verschillende elementen, temperaturen en drukken heen. Samen worden deze modellen beschreven als een generator/emulator-paar dat in staat is voorstellen te doen en deze razendsnel in silico te screenen.
De cirkel rondmaken: robots en active learning
Voorspellingen alleen veranderen de fysieke wereld niet; synthese en karakterisering wel. Om tot bruikbare uitvindingen te komen, koppelen laboratoria AI-modellen aan geautomatiseerde experimenten en een active-learning-cyclus. Een model stelt een kandidaat voor, high-throughput DFT- of ML-surrogaten schatten de stabiliteit en eigenschappen in, een geautomatiseerd of menselijk lab probeert de synthese, en de gemeten uitkomst wordt als gelabelde data teruggevoerd naar het model. DeepMind en anderen rapporteren samenwerkingen met geautomatiseerde faciliteiten — zoals de autonome platforms van het Lawrence Berkeley National Laboratory — die al een aanzienlijke set door modellen voorgestelde materialen hebben gesynthetiseerd, wat het praktische nut van closed-loop ontdekking aantoont. Deze lab-in-the-loop-benadering is wat voorspelling transformeert in productieve engineering.
Die combinatie — generatieve modellen, snelle ML-simulatoren en robotics — creëert een versnellend "vliegwiel": betere voorspellingen leiden tot eenvoudigere syntheses en meer trainingsdata, wat op zijn beurt de volgende voorspellingen verbetert. De gevolgen zijn voelbaar: wat vroeger een traject van decennia was van concept naar prototype, kan in gunstige gevallen krimpen tot maanden of een paar jaar.
Politiek, rekenkracht en de splitsing in open science
Deze vermogens geven niet alleen laboratoriumnotities vorm, maar ook beleid en industriële strategie. Het Amerikaanse ministerie van Energie lanceerde eind 2025 de Genesis Mission, een nationale inspanning om supercomputers van nationale laboratoria, AI-platforms en geautomatiseerde faciliteiten te combineren tot één enkele ontdekkingsmachine voor energie, materialen en nationale veiligheidsprioriteiten. Het programma wijst financiering en infrastructuur toe om gedeelde platforms te bouwen en de duplicatie van immense computerkosten binnen een handvol private laboratoria te voorkomen. Tegelijkertijd blijven bedrijven als Google, Meta en Microsoft hun eigen roadmaps uitzetten — waarbij sommigen code en datasets open-sourcen, terwijl anderen modellen en infrastructuur achter private clouds houden — wat een spanning creëert tussen bedrijfsvoordeel en wetenschappelijke democratisering.
Industriële belangen en doelen op de korte termijn
Waarom is dit van belang buiten de laboratoria? Betere materialen zijn de belangrijkste input voor verschillende industriële transities: dichtere en veiligere solid-state-batterijen, perovskiet- of tandem-zonne-absorbers met een hogere conversie-efficiëntie, geleiders met lagere verliezen en zelfs nieuwe supergeleiders die elektriciteitsnetten en elektronica zouden transformeren. Techbedrijven en nationale programma's richten deze inspanningen expliciet op klimaatkritieke doelen — opslag op netwerkschaal, efficiënte fotovoltaïsche materialen en verminderde afhankelijkheid van strategische mineralen. De commerciële race is al zichtbaar: Microsoft promoot MatterGen en MatterSim als tools voor bedrijven die werken aan energie en halfgeleiders, terwijl DeepMind, Meta en anderen de nadruk leggen op releases voor de gemeenschap en partnerschappen die ontdekkingen naar industriële R&D zullen loodsen.
Niet elke veelbelovende kandidaat zal opgeschaald kunnen worden. De grootste technische uitdaging is nu 'lab-to-fab': het omzetten van een DFT-vriendelijk kristal in een produceerbaar materiaal in industriële volumes, met reproduceerbare eigenschappen en acceptabele kosten. Syntheseomstandigheden, doping, korrelgrenzen en veroudering door omgevingsfactoren zijn allemaal praktische details die AI-modellen nog moeizaam perfect kunnen voorspellen. Dit is de reden waarom experimentele validatie en engineering onmisbaar blijven, zelfs nu de modelvoorspellingen toenemen.
Waar transparantie en reproduceerbaarheid een rol gaan spelen
Naast de voordelen zijn er reële wetenschappelijke risico's. Grote voorgetrainde modellen kunnen gezaghebbend lijken, zelfs wanneer hun foutmodi subtiel zijn; datasets en surrogaatmodellen kunnen vooroordelen of benaderingen bevatten die leiden tot niet-reproduceerbare claims als laboratoria de syntheseroute niet exact kunnen herhalen. De reactie vanuit de gemeenschap heeft de nadruk gelegd op open datasets, gedeelde benchmarks en onafhankelijke synthese-inspanningen, juist om een herhaling van het reproduceerbaarheidsprobleem te voorkomen dat andere door AI gedreven velden heeft geplaagd.
Die inspanning vindt parallel plaats aan architecturaal werk aan equivariante netwerken, overdraagbare ML-interatomaire potentialen en active-learning-strategieën die onzekerheid kwantificeren — technische stappen die zijn ontworpen om voorspellingen niet alleen sneller, maar ook interpreteerbaarder en betrouwbaarder te maken. Het resultaat is een mix van informatica, gecondenseerde-materiefysica en laboratorium-automation die meer aanvoelt als een technische discipline dan als een verzameling slimme hacks.
Welk label je er ook aan geeft — computationele alchemie, AI for science of atomistische engineering — de golf die de afgelopen twee jaar ontstond, draait om het opschalen van het ontdekkingsproces. De winnaars zullen organisaties zijn die uitstekende modellen, toegankelijke datasets, reproduceerbare experimentele pipelines en eerlijke toegang tot rekenkracht combineren. De volgende grote krantenkop zou een commercieel levensvatbare solid-state-batterij kunnen zijn of een supergeleider bij omgevingstemperatuur, voorgesteld door een model en gerealiseerd in een fabriek; tot die tijd blijft het werk een interdisciplinaire marathon die wordt gelopen op GPU-snelheid.
Bronnen
- Nature (GNoME-onderzoekspaper over AI-ontdekking van miljoenen kristalstructuren)
- arXiv / OMol25 (Open Molecules 2025 dataset en UMA-model)
- Lawrence Berkeley National Laboratory persmateriaal (Berkeley Lab news center)
- Microsoft Research publicaties en blogposts (MatterGen en MatterSim)
- U.S. Department of Energy persberichten en documentatie over de Genesis Mission
Comments
No comments yet. Be the first!