Alchimie computationnelle : l'IA réécrit le tableau périodique

Physics
Computational Alchemy: AI Rewrites the Periodic Table
Les laboratoires des géants technologiques utilisent l'IA générative et équivariante pour prédire des millions de nouveaux cristaux stables et des comportements à l'échelle atomique, transformant la découverte de matériaux d'un artisanat de plusieurs décennies en un sprint algorithmique. Cet article détaille comment DeepMind, Meta, Microsoft et le DOE américain conçoivent les modèles, les jeux de données et les boucles de rétroaction robotiques de ce que les chercheurs nomment « l'alchimie computationnelle ».

Sur une paillasse de laboratoire en béton en Californie et sur de vastes clusters de GPU dans des centres de données, un nouveau flux de travail remodèle discrètement le tableau périodique. Au lieu de chimistes ajustant lentement des recettes expérimentales, de grands réseaux de neurones proposent des arrangements atomiques, des pipelines de calcul à haut débit vérifient leur destin thermodynamique, et des laboratoires robotisés tentent de fabriquer les conceptions gagnantes en quelques jours. Le résultat n'est rien de moins qu'une cartographie à l'échelle industrielle de l'espace chimique : des millions de cristaux hypothétiques, des centaines de milliers signalés comme thermodynamiquement stables, et un nouveau vocabulaire — « l'alchimie computationnelle » — pour transformer le silicium, le lithium et le cobalt en inventions techniques par logiciel.

L'IA à l'échelle de la matière

L'un des premiers jalons publics de cette transformation est venu de l'effort sur les matériaux de Google DeepMind, qui a utilisé une approche par réseaux de neurones graphiques appelée GNoME (Graph Networks for Materials Exploration) pour scanner des combinaisons d'éléments et de géométries de réseau. Cette approche a permis de prédire environ 2,2 millions de structures cristallines candidates, dont quelque 380 000 ont été identifiées comme hautement stables selon les critères thermodynamiques conventionnels. DeepMind a publié les meilleurs candidats et documenté des suivis expérimentaux qui ont validé des centaines de prédictions, illustrant comment une boucle pilotée par les données peut multiplier en quelques mois l'univers des matériaux accessibles, ce qui nécessitait autrefois des siècles de découvertes progressives.

Le groupe Fundamental AI Research de Meta a emprunté une voie complémentaire en 2025 : au lieu de se contenter de générer des cristaux, il a publié des jeux de données atomistiques massifs et des modèles interatomiques pré-entraînés destinés à servir de « priors » physiques réutilisables. Le jeu de données Open Molecules 2025 (OMol25) et l'Universal Model for Atoms (UMA) fournissent des centaines de millions de calculs de niveau DFT et des potentiels interatomiques issus de l'apprentissage automatique qui peuvent être affinés ou intégrés dans des pipelines de découverte en aval. L'objectif affiché est de fournir aux chercheurs un microscope computationnel prêt à l'emploi et un champ de force rapide, afin que davantage d'équipes — au sein des universités et des startups — puissent lancer des simulations réalistes à grande échelle sans posséder le superordinateur qui a généré les données d'entraînement.

Différentes architectures, même mission

Bien que les gros titres regroupent ces efforts, les familles d'IA sous-jacentes diffèrent et ces différences comptent. Le GNoME de DeepMind repose sur des réseaux de neurones graphiques optimisés pour prédire les énergies de formation et proposer des structures par recherche compositionnelle et structurelle. Microsoft Research a publié deux projets jumeaux : MatterGen, un modèle de diffusion génératif qui propose des matériaux inorganiques conditionnés par des propriétés cibles, et MatterSim, un simulateur appris qui prédit les énergies et les réponses à travers les éléments, les températures et les pressions. Ensemble, ces modèles sont décrits comme un binôme générateur/émulateur capable de formuler des propositions et de les cribler rapidement in silico.

Boucler la boucle : robots et apprentissage actif

Les prédictions seules ne changent pas le monde physique ; ce sont la synthèse et la caractérisation qui le font. Pour parvenir à des inventions utilisables, les laboratoires associent les modèles d'IA à l'expérimentation automatisée et à une boucle d'apprentissage actif. Un modèle propose un candidat, des substituts DFT ou ML à haut débit estiment la stabilité et les propriétés, un laboratoire automatisé ou humain tente la synthèse, et le résultat mesuré est renvoyé au modèle sous forme de données étiquetées. DeepMind et d'autres font état de collaborations avec des installations automatisées — telles que les plateformes autonomes du Lawrence Berkeley National Laboratory — qui ont déjà synthétisé un ensemble non négligeable de matériaux proposés par les modèles, démontrant ainsi le bénéfice pratique de la découverte en boucle fermée. Cette approche « lab-in-the-loop » (laboratoire dans la boucle) est ce qui transforme la prédiction en ingénierie productive.

Cette combinaison — modèles génératifs, simulateurs ML rapides et robotique — crée un « effet volant » qui s'accélère : de meilleures prédictions produisent des synthèses plus faciles et plus de données d'entraînement, ce qui améliore à son tour les prédictions suivantes. Les conséquences sont palpables : ce qui était autrefois un parcours de plusieurs décennies, du concept au prototype, peut, dans les cas favorables, être réduit à quelques mois ou quelques années.

Politique, calcul et scission de la science ouverte

Ces capacités remodèlent non seulement les cahiers de laboratoire, mais aussi la politique et la stratégie industrielle. Le Département de l'Énergie des États-Unis a lancé la Genesis Mission fin 2025, un effort national visant à combiner les superordinateurs des laboratoires nationaux, les plateformes d'IA et les installations automatisées en un moteur de découverte unique pour l'énergie, les matériaux et les priorités de sécurité nationale. Le programme alloue des fonds et des infrastructures pour construire des plateformes partagées et éviter la duplication des coûts de calcul immenses au sein de quelques laboratoires privés. Dans le même temps, des entreprises comme Google, Meta et Microsoft continuent de définir leurs propres feuilles de route — certaines publiant le code et les jeux de données en open-source, d'autres gardant les modèles et l'infrastructure derrière des clouds privés — créant une tension entre avantage propriétaire et démocratisation scientifique.

Enjeux industriels et cibles à court terme

Pourquoi tout cela est-il important en dehors des laboratoires ? De meilleurs matériaux sont les intrants clés de plusieurs transitions industrielles : des batteries à l'état solide plus denses et plus sûres, des absorbeurs solaires à pérovskite ou en tandem avec une efficacité de conversion plus élevée, des conducteurs à plus faibles pertes et même de nouveaux supraconducteurs qui transformeraient les réseaux électriques et l'électronique. Les entreprises technologiques et les programmes nationaux orientent explicitement ces efforts vers des cibles critiques pour le climat — stockage à l'échelle du réseau, matériaux photovoltaïques efficaces et réduction de la dépendance aux minéraux stratégiques. La course commerciale est déjà visible : Microsoft promeut MatterGen et MatterSim comme des outils pour les entreprises travaillant sur l'énergie et les semi-conducteurs, tandis que DeepMind, Meta et d'autres mettent l'accent sur les publications communautaires et les partenariats qui canaliseront les découvertes vers la R&D industrielle.

Tous les candidats prometteurs ne passeront pas à l'échelle. Le principal défi technique est désormais le « lab-to-fab » : transformer un cristal adapté à la DFT en un matériau fabricable à des volumes industriels, avec des propriétés reproductibles et un coût acceptable. Les conditions de synthèse, le dopage, les joints de grains et le vieillissement environnemental sont autant de détails pratiques que les modèles d'IA peinent encore à prédire parfaitement. C'est pourquoi la validation expérimentale et l'ingénierie restent indispensables, même si les prédictions des modèles se multiplient.

L'entrée de la transparence et de la reproductibilité

Il existe de réels risques scientifiques parallèlement aux avantages. Les grands modèles pré-entraînés peuvent paraître autoritaires même lorsque leurs modes d'erreur sont subtils ; les jeux de données et les modèles de substitution peuvent intégrer des biais ou des approximations conduisant à des affirmations non reproductibles si les laboratoires ne peuvent pas reproduire exactement la voie de synthèse. La réponse de la communauté a mis l'accent sur les jeux de données ouverts, les benchmarks partagés et les efforts de synthèse indépendants, précisément pour éviter une répétition du problème de reproductibilité qui a troublé d'autres domaines pilotés par l'IA.

Cet effort se déroule en parallèle des travaux architecturaux sur les réseaux équivariants, les potentiels interatomiques ML transférables et les stratégies d'apprentissage actif qui quantifient l'incertitude — des étapes techniques conçues pour rendre les prédictions non seulement plus rapides, mais aussi plus interprétables et fiables. Le résultat est un mélange d'informatique, de physique de la matière condensée et d'automatisation de laboratoire qui ressemble plus à une discipline d'ingénierie qu'à une collection d'astuces astucieuses.

Quel que soit le nom qu'on lui donne — alchimie computationnelle, l'IA pour la science ou ingénierie atomistique — la vague qui a déferlé ces deux dernières années concerne le passage à l'échelle du processus de découverte. Les gagnants seront les organisations qui combineront d'excellents modèles, des jeux de données accessibles, des pipelines expérimentaux reproductibles et un accès équitable au calcul. Le prochain grand titre de presse pourrait être une batterie à l'état solide commercialement viable ou un supraconducteur à température ambiante proposé par un modèle et réalisé dans une usine ; d'ici là, le travail restera un marathon interdisciplinaire couru à la vitesse des GPU.

Sources

  • Nature (article de recherche GNoME sur la découverte par l'IA de millions de structures cristallines)
  • arXiv / OMol25 (jeu de données Open Molecules 2025 et modèle UMA)
  • Documents de presse du Lawrence Berkeley National Laboratory (centre d'actualités du Berkeley Lab)
  • Publications et articles de blog de Microsoft Research (MatterGen et MatterSim)
  • Communiqués de presse du Département de l'Énergie des États-Unis et documentation de la Genesis Mission
Mattias Risberg

Mattias Risberg

Cologne-based science & technology reporter tracking semiconductors, space policy and data-driven investigations.

University of Cologne (Universität zu Köln) • Cologne, Germany

Readers

Readers Questions Answered

Q Qu'est-ce que l'alchimie computationnelle dans ce contexte et quels outils d'IA la propulsent ?
A L'alchimie computationnelle consiste à utiliser l'IA pour cartographier l'espace chimique et transformer des conceptions générées par logiciel en matériaux réels en proposant rapidement des arrangements atomiques, en testant leur stabilité thermodynamique et en validant les prédictions par des simulations et des expériences. Cet effort combine les réseaux de neurones graphiques de DeepMind (GNoME), MatterGen et MatterSim de Microsoft, ainsi que les données OMol25/UMA avec une synthèse robotisée automatisée pour fermer la boucle.
Q Quel jalon DeepMind a-t-il franchi avec GNoME ?
A L'un des jalons majeurs de l'effort de DeepMind dans le domaine des matériaux a été l'utilisation de GNoME pour scanner des combinaisons d'éléments et de géométries de réseaux, prédisant environ 2,2 millions de structures cristallines candidates, dont environ 380 000 ont été identifiées comme hautement stables selon les critères thermodynamiques conventionnels. L'équipe a publié les meilleurs candidats et documenté des suivis expérimentaux qui ont validé des centaines de prédictions, illustrant une boucle axée sur les données qui accélère la découverte, la faisant passer de plusieurs siècles à quelques mois.
Q Comment les modèles d'IA et la robotique créent-ils une boucle fermée entre la prédiction et l'expérience ?
A Un modèle propose un candidat, des substituts de DFT ou de ML à haut débit estiment sa stabilité et ses propriétés, et des laboratoires automatisés ou humains tentent la synthèse. Les résultats mesurés sont réinjectés sous forme de données étiquetées pour réentraîner les modèles. Les collaborations avec des plateformes autonomes, telles que le Lawrence Berkeley National Laboratory, démontrent les retombées pratiques de la découverte avec « laboratoire dans la boucle », entraînant un cycle d'auto-amélioration continue.
Q Quelles sont les implications politiques et industrielles ainsi que les principaux défis à venir ?
A Les implications politiques et industrielles sont façonnées par la Genesis Mission, un programme du DOE lancé en 2025 pour fusionner le supercalcul, les plateformes d'IA et les installations automatisées en un moteur de découverte partagé pour l'énergie, les matériaux et les priorités de sécurité nationale. Parallèlement, les entreprises équilibrent les publications en open source et les feuilles de route privées, créant une tension entre démocratisation et avantage propriétaire. Le défi central reste le passage du laboratoire à la fabrication : transformer des cristaux compatibles avec la DFT en matériaux fabricables à grande échelle, avec des propriétés reproductibles et à des coûts abordables.

Have a question about this article?

Questions are reviewed before publishing. We'll answer the best ones!

Comments

No comments yet. Be the first!