Alchimia Computazionale: L'IA riscrive la tavola periodica

Fisica
Computational Alchemy: AI Rewrites the Periodic Table
I laboratori delle grandi aziende tecnologiche stanno utilizzando l'IA generativa ed equivariante per prevedere milioni di nuovi cristalli stabili e comportamenti su scala atomica, trasformando la scoperta di materiali da un processo artigianale decennale in una corsa algoritmica. Questo articolo spiega come DeepMind, Meta, Microsoft e il DOE statunitense stiano costruendo i modelli, i dataset e i cicli di feedback robotici alla base di quella che i ricercatori chiamano 'alchimia computazionale'.

Su un bancone da laboratorio in cemento in California e su vasti cluster di GPU nei data center, un nuovo flusso di lavoro sta silenziosamente riscrivendo la tavola periodica. Invece di chimici che perfezionano lentamente le ricette sperimentali, grandi reti neurali propongono disposizioni atomiche, pipeline di calcolo ad alto rendimento ne controllano il destino termodinamico e laboratori robotizzati cercano di realizzare i progetti vincenti in pochi giorni. Il risultato è nientemeno che una mappatura su scala industriale dello spazio chimico: milioni di cristalli ipotetici, centinaia di migliaia contrassegnati come termodinamicamente stabili e un nuovo vocabolario — "alchimia computazionale" — per trasformare silicio, litio e cobalto in invenzioni ingegnerizzate tramite software.

L'IA alla scala della materia

Una delle prime pietre miliari pubbliche in questa trasformazione è arrivata dall'impegno sui materiali di Google DeepMind, che ha utilizzato un approccio neurale a grafo chiamato GNoME (Graph Networks for Materials Exploration) per scansionare combinazioni di elementi e geometrie reticolari, prevedendo circa 2,2 milioni di strutture cristalline candidate, di cui circa 380.000 sono state identificate come altamente stabili secondo i convenzionali criteri termodinamici. DeepMind ha rilasciato i candidati principali e ha documentato i follow-up sperimentali che hanno convalidato centinaia di previsioni, illustrando come un ciclo basato sui dati possa moltiplicare in pochi mesi l'universo dei materiali accessibili, un processo che prima richiedeva secoli di scoperte incrementali.

Il gruppo Fundamental AI Research di Meta ha intrapreso una strada complementare nel 2025: invece di generare solo cristalli, ha pubblicato massicci dataset atomistici e modelli interatomici pre-addestrati destinati a fungere da "prior" fisici riutilizzabili. Il dataset Open Molecules 2025 (OMol25) e l'Universal Model for Atoms (UMA) forniscono centinaia di milioni di calcoli a livello DFT e potenziali interatomici appresi dalle macchine che possono essere perfezionati o composti in pipeline di scoperta a valle. L'obiettivo dichiarato è fornire ai ricercatori un microscopio computazionale già pronto e un campo di forza veloce, in modo che più team — all'interno di università e startup — possano eseguire simulazioni realistiche su larga scala senza possedere il supercomputer che ha generato i dati di addestramento.

Architetture diverse, stessa missione

Sebbene i titoli dei giornali accomunino questi sforzi, le famiglie di IA sottostanti sono diverse e le differenze contano. GNoME di DeepMind si affida a reti neurali a grafo ottimizzate per prevedere le energie di formazione e proporre strutture attraverso la ricerca compositiva e strutturale. Microsoft Research ha pubblicato due progetti gemelli: MatterGen, un modello di diffusione generativo che propone materiali inorganici condizionati da proprietà target, e MatterSim, un simulatore appreso che prevede energie e risposte attraverso elementi, temperature e pressioni. Insieme, questi modelli sono descritti come una coppia generatore/emulatore in grado di avanzare proposte e vagliarle rapidamente in silico.

Chiudere il cerchio: robot e apprendimento attivo

Le previsioni da sole non cambiano il mondo fisico; la sintesi e la caratterizzazione sì. Per arrivare a invenzioni utilizzabili, i laboratori stanno unendo i modelli di IA alla sperimentazione automatizzata e a un ciclo di apprendimento attivo (active learning loop). Un modello propone un candidato, surrogati DFT o ML ad alto rendimento ne stimano la stabilità e le proprietà, un laboratorio automatizzato o umano tenta la sintesi e il risultato misurato viene restituito al modello come dato etichettato. DeepMind e altri riportano collaborazioni con strutture automatizzate — come le piattaforme autonome del Lawrence Berkeley National Laboratory — che hanno già sintetizzato un set non trascurabile di materiali proposti dai modelli, dimostrando il ritorno pratico della scoperta a ciclo chiuso. Questo approccio "lab-in-the-loop" è ciò che trasforma la previsione in ingegneria produttiva.

Questa combinazione — modelli generativi, veloci simulatori ML e robotica — crea un "volano" in accelerazione: previsioni migliori producono sintesi più facili e più dati di addestramento, il che a sua volta migliora le previsioni successive. Le conseguenze sono palpabili: quello che un tempo era un percorso pluridecennale dal concetto al prototipo può, in casi favorevoli, ridursi a mesi o a pochi anni.

Politica, calcolo e la scissione della scienza aperta

Queste capacità rimodellano non solo i quaderni di laboratorio, ma anche le politiche e la strategia industriale. Il Dipartimento dell'Energia degli Stati Uniti ha lanciato la Genesis Mission alla fine del 2025, uno sforzo nazionale per combinare i supercomputer dei laboratori nazionali, le piattaforme di IA e le strutture automatizzate in un unico motore di scoperta per le priorità energetiche, dei materiali e della sicurezza nazionale. Il programma assegna finanziamenti e infrastrutture per costruire piattaforme condivise ed evitare la duplicazione degli immensi costi di calcolo all'interno di una manciata di laboratori privati. Allo stesso tempo, aziende come Google, Meta e Microsoft continuano a definire le proprie tabelle di marcia — alcune rendendo open source codici e dataset, altre mantenendo modelli e infrastrutture dietro cloud privati — creando una tensione tra vantaggio proprietario e democratizzazione scientifica.

Posta in gioco industriale e obiettivi a breve termine

Perché tutto questo è importante al di fuori dei laboratori? Materiali migliori sono gli input chiave per diverse transizioni industriali: batterie allo stato solido più dense e sicure, assorbitori solari in perovskite o tandem con maggiore efficienza di conversione, conduttori a basse perdite e persino nuovi superconduttori che riscriverebbero le reti elettriche e l'elettronica. Le aziende tecnologiche e i programmi nazionali stanno orientando esplicitamente questi sforzi verso obiettivi critici per il clima: stoccaggio su scala di rete, materiali fotovoltaici efficienti e riduzione della dipendenza da minerali strategici. La corsa commerciale è già visibile: Microsoft promuove MatterGen e MatterSim come strumenti per le aziende che lavorano su energia e semiconduttori, mentre DeepMind, Meta e altri enfatizzano i rilasci per la comunità e le partnership che convoglieranno le scoperte nella R&D industriale.

Non tutti i candidati promettenti passeranno alla produzione. La sfida tecnica dominante ora è il "lab-to-fab": trasformare un cristallo adatto alla DFT in un materiale producibile a volumi industriali, con proprietà riproducibili e costi accettabili. Condizioni di sintesi, drogaggio, bordi di grano e invecchiamento ambientale sono tutti dettagli pratici che i modelli di IA faticano a prevedere perfettamente. Ecco perché la validazione sperimentale e l'ingegneria rimangono indispensabili anche se le previsioni dei modelli proliferano.

Dove entrano in gioco trasparenza e riproducibilità

Accanto ai vantaggi esistono reali rischi scientifici. I grandi modelli pre-addestrati possono apparire autorevoli anche quando le loro modalità di errore sono sottili; i dataset e i modelli surrogati possono incorporare bias o approssimazioni che portano a affermazioni non riproducibili se i laboratori non riescono a replicare esattamente la via di sintesi. La risposta della comunità ha enfatizzato i dataset aperti, i benchmark condivisi e gli sforzi di sintesi indipendenti proprio per evitare una ripetizione del problema della riproducibilità che ha afflitto altri campi guidati dall'IA.

Questo sforzo sta avvenendo in parallelo al lavoro architettonico su reti equivarianti, potenziali interatomici ML trasferibili e strategie di apprendimento attivo che quantificano l'incertezza — passaggi tecnici progettati per rendere le previsioni non solo più veloci, ma più interpretabili e affidabili. Il risultato è una miscela di informatica, fisica della materia condensata e automazione di laboratorio che somiglia più a una disciplina ingegneristica che a una collezione di espedienti intelligenti.

Qualunque etichetta le si dia — alchimia computazionale, IA per la scienza o ingegneria atomistica — l'ondata che si è abbattuta negli ultimi due anni riguarda la scalabilità del processo di scoperta. I vincitori saranno le organizzazioni che combineranno modelli eccellenti, dataset accessibili, pipeline sperimentali riproducibili e un accesso equo alla potenza di calcolo. Il prossimo grande titolo potrebbe essere una batteria allo stato solido commercialmente praticabile o un superconduttore a temperatura ambiente proposto da un modello e realizzato in fabbrica; fino ad allora, il lavoro rimarrà una maratona interdisciplinare corsa alla velocità delle GPU.

Fonti

  • Nature (documento di ricerca GNoME sulla scoperta tramite IA di milioni di strutture cristalline)
  • arXiv / OMol25 (dataset Open Molecules 2025 e modello UMA)
  • Materiali stampa del Lawrence Berkeley National Laboratory (centro notizie del Berkeley Lab)
  • Pubblicazioni e post sul blog di Microsoft Research (MatterGen e MatterSim)
  • Comunicati stampa del Dipartimento dell'Energia degli Stati Uniti e documentazione della Genesis Mission
Mattias Risberg

Mattias Risberg

Cologne-based science & technology reporter tracking semiconductors, space policy and data-driven investigations.

University of Cologne (Universität zu Köln) • Cologne, Germany

Readers

Readers Questions Answered

Q Cos'è l'alchimia computazionale in questo contesto e quali strumenti di IA la alimentano?
A L'alchimia computazionale si riferisce all'uso dell'IA per mappare lo spazio chimico e trasformare i progetti generati dal software in materiali reali, proponendo rapidamente disposizioni atomiche, testando la loro stabilità termodinamica e validando le previsioni attraverso simulazioni ed esperimenti. L'iniziativa combina le reti neurali a grafo di DeepMind (GNoME), MatterGen e MatterSim di Microsoft e i dati OMol25/UMA con la sintesi robotica automatizzata per chiudere il ciclo.
Q Quale traguardo ha raggiunto DeepMind con GNoME?
A Un traguardo dell'impegno di DeepMind nel settore dei materiali è stato l'uso di GNoME per scansionare combinazioni di elementi e geometrie reticolari, prevedendo circa 2,2 milioni di strutture cristalline candidate, di cui circa 380.000 sono state identificate come altamente stabili secondo i criteri termodinamici convenzionali. Il team ha rilasciato i candidati principali e ha documentato i follow-up sperimentali che hanno validato centinaia di previsioni, illustrando un ciclo guidato dai dati che accelera la scoperta da secoli a mesi.
Q In che modo i modelli di IA e la robotica creano un ciclo chiuso tra previsione ed esperimento?
A Un modello propone un candidato, surrogati DFT o ML ad alto rendimento ne stimano la stabilità e le proprietà, e laboratori automatizzati o umani tentano la sintesi. I risultati misurati vengono reinseriti come dati etichettati per addestrare nuovamente i modelli. Le collaborazioni con piattaforme autonome, come il Lawrence Berkeley National Laboratory, dimostrano il rendimento pratico della scoperta 'lab-in-the-loop', alimentando un volano di auto-miglioramento.
Q Quali sono le implicazioni politiche e industriali e le principali sfide future?
A Le implicazioni politiche e industriali sono modellate dalla Genesis Mission, un programma del DOE iniziato nel 2025 per fondere supercalcolo, piattaforme di IA e strutture automatizzate in un motore di scoperta condiviso per l'energia, i materiali e le priorità di sicurezza nazionale. Nel frattempo, le aziende bilanciano i rilasci open-source con le roadmap private, creando tensione tra democratizzazione e vantaggio proprietario. La sfida centrale rimane il passaggio dal laboratorio alla produzione (lab-to-fab): trasformare i cristalli ideali per la DFT in materiali producibili su scala con proprietà riproducibili e costi accessibili.

Have a question about this article?

Questions are reviewed before publishing. We'll answer the best ones!

Comments

No comments yet. Be the first!