Alchemia obliczeniowa: SI przepisuje układ okresowy

Physics
Computational Alchemy: AI Rewrites the Periodic Table
Laboratoria gigantów technologicznych wykorzystują generatywną i ekwiwariantną sztuczną inteligencję do przewidywania milionów nowych stabilnych kryształów oraz zachowań w skali atomowej, przekształcając odkrywanie materiałów z rzemiosła trwającego dekady w algorytmiczny sprint. Artykuł wyjaśnia, jak DeepMind, Meta, Microsoft i Departament Energii USA budują modele, zbiory danych i zrobotyzowane pętle sprzężenia zwrotnego stojące za tym, co badacze nazywają „alchemią obliczeniową”.

Na betonowym stole laboratoryjnym w Kalifornii i na ogromnych klastrach GPU w centrach danych nowy model pracy po cichu przekształca układ okresowy. Zamiast chemików powoli dopracowujących receptury eksperymentalne, duże sieci neuronowe proponują układy atomowe, wysokoprzepustowe potoki obliczeniowe sprawdzają ich los termodynamiczny, a zrobotyzowane laboratoria starają się wytworzyć zwycięskie projekty w ciągu kilku dni. Wynikiem jest nic innego jak mapowanie przestrzeni chemicznej na skalę przemysłową: miliony hipotetycznych kryształów, setki tysięcy oznaczonych jako stabilne termodynamicznie oraz nowe pojęcie – „alchemia obliczeniowa” – oznaczające zamianę krzemu, litu i kobaltu w inżynieryjne wynalazki za pomocą oprogramowania.

Sztuczna inteligencja w skali materii

Jeden z najwcześniejszych publicznych kamieni milowych w tej transformacji pochodzi z projektu materiałowego Google DeepMind, w którym wykorzystano podejście grafowo-neuronowe o nazwie GNoME (Graph Networks for Materials Exploration). Posłużyło ono do skanowania kombinacji pierwiastków i geometrii sieci krystalicznych oraz przewidzenia około 2,2 miliona kandydatów na struktury krystaliczne, z których około 380 000 zidentyfikowano jako wysoce stabilne według konwencjonalnych kryteriów termodynamicznych. DeepMind udostępniło najlepszych kandydatów i udokumentowało eksperymentalne działania następcze, które potwierdziły setki prognoz, ilustrując, jak pętla oparta na danych może w ciągu miesięcy powiększyć wszechświat dostępnych materiałów o tyle, ile wcześniej zajmowały stulecia stopniowych odkryć.

Grupa Fundamental AI Research należąca do Meta obrała w 2025 roku komplementarną drogę: zamiast tylko generować kryształy, opublikowała masowe zbiory danych atomistycznych i wytrenowane modele międzyatomowe, które mają służyć jako fizyczne bazy wielokrotnego użytku. Zbiór danych Open Molecules 2025 (OMol25) oraz model Universal Model for Atoms (UMA) dostarczają setki milionów obliczeń na poziomie DFT i wyuczonych maszynowo potencjałów międzyatomowych, które można dostrajać lub włączać do kolejnych potoków odkrywczych. Deklarowanym celem jest dostarczenie badaczom gotowego mikroskopu obliczeniowego i szybkiego pola siłowego, aby więcej zespołów – na uniwersytetach i w startupach – mogło przeprowadzać realistyczne symulacje na dużą skalę bez konieczności posiadania superkomputera, który wygenerował dane treningowe.

Różne architektury, ta sama misja

Chociaż nagłówki łączą te wysiłki, leżące u ich podstaw rodziny AI różnią się od siebie, a różnice te mają znaczenie. GNoME od DeepMind opiera się na grafowych sieciach neuronowych zoptymalizowanych pod kątem przewidywania energii tworzenia oraz proponowania struktur poprzez przeszukiwanie składu i struktury. Microsoft Research opublikował dwa siostrzane projekty – MatterGen, generatywny model dyfuzyjny, który proponuje materiały nieorganiczne uwarunkowane docelowymi właściwościami, oraz MatterSim, wyuczony symulator przewidujący energię i reakcje w zależności od pierwiastków, temperatury i ciśnienia. Razem modele te są opisywane jako para generator/emulator zdolna do tworzenia propozycji i ich szybkiego przesiewania in silico.

Zamykanie pętli: roboty i aktywne uczenie się

Same przewidywania nie zmieniają świata fizycznego; robią to synteza i charakteryzacja. Aby dotrzeć do użytecznych wynalazków, laboratoria łączą modele AI z automatyzacją eksperymentów i pętlą aktywnego uczenia się. Model proponuje kandydata, wysokoprzepustowe surogaty DFT lub ML szacują stabilność i właściwości, zautomatyzowane lub ludzkie laboratorium próbuje syntezy, a zmierzony wynik trafia z powrotem do modelu jako dane etykietowane. DeepMind i inni donoszą o współpracy ze zautomatyzowanymi placówkami – takimi jak autonomiczne platformy Lawrence Berkeley National Laboratory – które już zsyntetyzowały nietrywialny zestaw materiałów zaproponowanych przez modele, demonstrując praktyczne korzyści z odkryć w pętli zamkniętej. To podejście typu „lab-in-the-loop” przekształca prognozy w produktywną inżynierię.

To połączenie – modeli generatywnych, szybkich symulatorów ML i robotyki – tworzy przyspieszające „koło zamachowe”: lepsze przewidywania prowadzą do łatwiejszych syntez i większej ilości danych treningowych, co z kolei poprawia kolejne prognozy. Konsekwencje są namacalne: to, co wcześniej było wielodekadową drogą od koncepcji do prototypu, może w korzystnych przypadkach skrócić się do miesięcy lub kilku lat.

Polityka, moc obliczeniowa i podział w otwartej nauce

Te możliwości zmieniają nie tylko dzienniki laboratoryjne, ale także politykę i strategię przemysłową. Departament Energii Stanów Zjednoczonych uruchomił pod koniec 2025 roku misję Genesis – krajowe przedsięwzięcie mające na celu połączenie superkomputerów laboratoriów narodowych, platform AI i zautomatyzowanych obiektów w jeden silnik odkrywczy dla priorytetów energetycznych, materiałowych i bezpieczeństwa narodowego. Program przydziela fundusze i infrastrukturę na budowę wspólnych platform i unikanie powielania ogromnych kosztów obliczeniowych wewnątrz kilku prywatnych laboratoriów. Jednocześnie firmy takie jak Google, Meta i Microsoft nadal wyznaczają własne mapy drogowe – jedne udostępniają kod i zbiory danych na zasadach open-source, inne utrzymują modele i infrastrukturę w prywatnych chmurach – co stwarza napięcie między przewagą własnościową a demokratyzacją nauki.

Stawki przemysłowe i cele krótkoterminowe

Dlaczego ma to znaczenie poza laboratoriami? Lepsze materiały są kluczowymi elementami kilku transformacji przemysłowych: gęstszych i bezpieczniejszych baterii ze stałym elektrolitem, perowskitowych lub tandemowych absorberów słonecznych o wyższej wydajności konwersji, przewodników o niższych stratach, a nawet nowych nadprzewodników, które przebudowałyby sieci energetyczne i elektronikę. Firmy technologiczne i programy krajowe wyraźnie orientują te wysiłki wokół celów krytycznych dla klimatu – magazynowania energii na skalę sieciową, wydajnych materiałów fotowoltaicznych i zmniejszenia zależności od minerałów strategicznych. Wyścig komercyjny jest już widoczny: Microsoft promuje MatterGen i MatterSim jako narzędzia dla firm pracujących nad energią i półprzewodnikami, podczas gdy DeepMind, Meta i inni kładą nacisk na wydania społecznościowe i partnerstwa, które będą kierować odkrycia do przemysłowych działów B+R.

Nie każdy obiecujący kandydat zostanie wdrożony na skalę masową. Dominującym wyzwaniem technicznym jest obecnie przejście „od laboratorium do fabryki” (lab-to-fab): zamiana kryształu przyjaznego dla DFT w materiał nadający się do produkcji w ilościach przemysłowych, o powtarzalnych właściwościach i akceptowalnych kosztach. Warunki syntezy, domieszkowanie, granice ziaren i starzenie środowiskowe to praktyczne szczegóły, których modele AI wciąż nie potrafią idealnie przewidzieć. Dlatego weryfikacja eksperymentalna i inżynieria pozostają nieodzowne, nawet gdy liczba prognoz modelowych gwałtownie rośnie.

Gdzie wkracza przejrzystość i powtarzalność

Obok korzyści istnieją realne ryzyka naukowe. Duże, wstępnie wytrenowane modele mogą wydawać się autorytatywne nawet wtedy, gdy ich błędy są subtelne; zbiory danych i modele surogatowe mogą zawierać uprzedzenia lub przybliżenia prowadzące do niepowtarzalnych twierdzeń, jeśli laboratoria nie będą w stanie dokładnie odtworzyć ścieżki syntezy. Odpowiedzią społeczności było położenie nacisku na otwarte zbiory danych, wspólne testy porównawcze i niezależne próby syntezy, właśnie po to, by uniknąć powtórzenia problemu powtarzalności, który dotknął inne dziedziny napędzane przez AI.

Wysiłek ten odbywa się równolegle do prac architektonicznych nad sieciami ekwiwariantnymi, transferowalnymi potencjałami międzyatomowymi ML i strategiami aktywnego uczenia się, które kwantyfikują niepewność – są to kroki techniczne zaprojektowane tak, aby prognozy były nie tylko szybsze, ale także bardziej interpretowalne i wiarygodne. Rezultatem jest mieszanka informatyki, fizyki materii skondensowanej i laboratoryjnej automatyzacji, która przypomina bardziej dyscyplinę inżynieryjną niż zbiór sprytnych trików.

Niezależnie od przyjętej nazwy – alchemia obliczeniowa, AI dla nauki czy inżynieria atomistyczna – fala, która wezbrała w ciągu ostatnich dwóch lat, dotyczy skalowania procesu odkrywania. Zwycięzcami zostaną organizacje, które połączą doskonałe modele, dostępne zbiory danych, powtarzalne potoki eksperymentalne i sprawiedliwy dostęp do mocy obliczeniowej. Kolejnym ważnym nagłówkiem może być komercyjnie opłacalna bateria ze stałym elektrolitem lub nadprzewodnik działający w temperaturze otoczenia, zaproponowany przez model i zrealizowany w fabryce; do tego czasu praca pozostanie interdyscyplinarnym maratonem bieganym z prędkością procesorów GPU.

Źródła

  • Nature (praca badawcza GNoME na temat odkrywania milionów struktur krystalicznych przez AI)
  • arXiv / OMol25 (zbiór danych Open Molecules 2025 i model UMA)
  • Materiały prasowe Lawrence Berkeley National Laboratory (centrum informacyjne Berkeley Lab)
  • Publikacje i wpisy na blogu Microsoft Research (MatterGen i MatterSim)
  • Komunikaty prasowe Departamentu Energii USA i dokumentacja misji Genesis
Mattias Risberg

Mattias Risberg

Cologne-based science & technology reporter tracking semiconductors, space policy and data-driven investigations.

University of Cologne (Universität zu Köln) • Cologne, Germany

Readers

Readers Questions Answered

Q Czym jest alchemia obliczeniowa w tym kontekście i jakie narzędzia AI ją napędzają?
A Alchemia obliczeniowa odnosi się do wykorzystania sztucznej inteligencji do mapowania przestrzeni chemicznej i przekształcania projektów wygenerowanych przez oprogramowanie w rzeczywiste materiały poprzez szybkie proponowanie układów atomowych, testowanie ich stabilności termodynamicznej oraz walidację przewidywań za pomocą symulacji i eksperymentów. Działania te łączą grafowe sieci neuronowe od DeepMind (GNoME), MatterGen i MatterSim od Microsoftu oraz dane OMol25/UMA ze zautomatyzowaną, zrobotyzowaną syntezą w celu zamknięcia cyklu badawczego.
Q Jaki kamień milowy osiągnął DeepMind dzięki GNoME?
A Jednym z kamieni milowych w badaniach materiałowych DeepMind było wykorzystanie GNoME do skanowania kombinacji pierwiastków i geometrii sieci krystalicznych, co pozwoliło przewidzieć około 2,2 miliona kandydujących struktur krystalicznych, z których około 380 000 zidentyfikowano jako wysoce stabilne według konwencjonalnych kryteriów termodynamicznych. Zespół opublikował najlepszych kandydatów i udokumentował dalsze badania eksperymentalne, które potwierdziły setki prognoz, ilustrując pętlę opartą na danych, która przyspiesza proces odkrywania z setek lat do miesięcy.
Q W jaki sposób modele AI i robotyka tworzą zamkniętą pętlę między przewidywaniami a eksperymentem?
A Model proponuje kandydata, wysokoprzepustowe obliczenia DFT lub modele zastępcze ML szacują jego stabilność i właściwości, a zautomatyzowane lub ludzkie laboratoria podejmują próbę syntezy. Zmierzone wyniki są przekazywane z powrotem jako etykietowane dane do ponownego trenowania modeli. Współpraca z autonomicznymi platformami, takimi jak Lawrence Berkeley National Laboratory, demonstruje praktyczne korzyści płynące z odkryć typu „laboratorium w pętli”, napędzając samodoskonalący się mechanizm.
Q Jakie są implikacje polityczne i przemysłowe oraz główne wyzwania na przyszłość?
A Implikacje polityczne i przemysłowe są kształtowane przez Genesis Mission, program DOE rozpoczęty w 2025 roku w celu połączenia superkomputerów, platform AI i zautomatyzowanych obiektów we wspólny silnik odkryć dla priorytetów związanych z energią, materiałami i bezpieczeństwem narodowym. W międzyczasie firmy balansują między udostępnianiem rozwiązań open-source a prywatnymi planami rozwoju, co tworzy napięcie między demokratyzacją a przewagą własnościową. Głównym wyzwaniem pozostaje przejście „od laboratorium do fabryki” (lab-to-fab): przekształcenie kryształów sprzyjających symulacjom DFT w materiały możliwe do produkcji na dużą skalę, o powtarzalnych właściwościach i przystępnych kosztach.

Have a question about this article?

Questions are reviewed before publishing. We'll answer the best ones!

Comments

No comments yet. Be the first!