Na betonowym stole laboratoryjnym w Kalifornii i na ogromnych klastrach GPU w centrach danych nowy model pracy po cichu przekształca układ okresowy. Zamiast chemików powoli dopracowujących receptury eksperymentalne, duże sieci neuronowe proponują układy atomowe, wysokoprzepustowe potoki obliczeniowe sprawdzają ich los termodynamiczny, a zrobotyzowane laboratoria starają się wytworzyć zwycięskie projekty w ciągu kilku dni. Wynikiem jest nic innego jak mapowanie przestrzeni chemicznej na skalę przemysłową: miliony hipotetycznych kryształów, setki tysięcy oznaczonych jako stabilne termodynamicznie oraz nowe pojęcie – „alchemia obliczeniowa” – oznaczające zamianę krzemu, litu i kobaltu w inżynieryjne wynalazki za pomocą oprogramowania.
Sztuczna inteligencja w skali materii
Jeden z najwcześniejszych publicznych kamieni milowych w tej transformacji pochodzi z projektu materiałowego Google DeepMind, w którym wykorzystano podejście grafowo-neuronowe o nazwie GNoME (Graph Networks for Materials Exploration). Posłużyło ono do skanowania kombinacji pierwiastków i geometrii sieci krystalicznych oraz przewidzenia około 2,2 miliona kandydatów na struktury krystaliczne, z których około 380 000 zidentyfikowano jako wysoce stabilne według konwencjonalnych kryteriów termodynamicznych. DeepMind udostępniło najlepszych kandydatów i udokumentowało eksperymentalne działania następcze, które potwierdziły setki prognoz, ilustrując, jak pętla oparta na danych może w ciągu miesięcy powiększyć wszechświat dostępnych materiałów o tyle, ile wcześniej zajmowały stulecia stopniowych odkryć.
Grupa Fundamental AI Research należąca do Meta obrała w 2025 roku komplementarną drogę: zamiast tylko generować kryształy, opublikowała masowe zbiory danych atomistycznych i wytrenowane modele międzyatomowe, które mają służyć jako fizyczne bazy wielokrotnego użytku. Zbiór danych Open Molecules 2025 (OMol25) oraz model Universal Model for Atoms (UMA) dostarczają setki milionów obliczeń na poziomie DFT i wyuczonych maszynowo potencjałów międzyatomowych, które można dostrajać lub włączać do kolejnych potoków odkrywczych. Deklarowanym celem jest dostarczenie badaczom gotowego mikroskopu obliczeniowego i szybkiego pola siłowego, aby więcej zespołów – na uniwersytetach i w startupach – mogło przeprowadzać realistyczne symulacje na dużą skalę bez konieczności posiadania superkomputera, który wygenerował dane treningowe.
Różne architektury, ta sama misja
Chociaż nagłówki łączą te wysiłki, leżące u ich podstaw rodziny AI różnią się od siebie, a różnice te mają znaczenie. GNoME od DeepMind opiera się na grafowych sieciach neuronowych zoptymalizowanych pod kątem przewidywania energii tworzenia oraz proponowania struktur poprzez przeszukiwanie składu i struktury. Microsoft Research opublikował dwa siostrzane projekty – MatterGen, generatywny model dyfuzyjny, który proponuje materiały nieorganiczne uwarunkowane docelowymi właściwościami, oraz MatterSim, wyuczony symulator przewidujący energię i reakcje w zależności od pierwiastków, temperatury i ciśnienia. Razem modele te są opisywane jako para generator/emulator zdolna do tworzenia propozycji i ich szybkiego przesiewania in silico.
Zamykanie pętli: roboty i aktywne uczenie się
Same przewidywania nie zmieniają świata fizycznego; robią to synteza i charakteryzacja. Aby dotrzeć do użytecznych wynalazków, laboratoria łączą modele AI z automatyzacją eksperymentów i pętlą aktywnego uczenia się. Model proponuje kandydata, wysokoprzepustowe surogaty DFT lub ML szacują stabilność i właściwości, zautomatyzowane lub ludzkie laboratorium próbuje syntezy, a zmierzony wynik trafia z powrotem do modelu jako dane etykietowane. DeepMind i inni donoszą o współpracy ze zautomatyzowanymi placówkami – takimi jak autonomiczne platformy Lawrence Berkeley National Laboratory – które już zsyntetyzowały nietrywialny zestaw materiałów zaproponowanych przez modele, demonstrując praktyczne korzyści z odkryć w pętli zamkniętej. To podejście typu „lab-in-the-loop” przekształca prognozy w produktywną inżynierię.
To połączenie – modeli generatywnych, szybkich symulatorów ML i robotyki – tworzy przyspieszające „koło zamachowe”: lepsze przewidywania prowadzą do łatwiejszych syntez i większej ilości danych treningowych, co z kolei poprawia kolejne prognozy. Konsekwencje są namacalne: to, co wcześniej było wielodekadową drogą od koncepcji do prototypu, może w korzystnych przypadkach skrócić się do miesięcy lub kilku lat.
Polityka, moc obliczeniowa i podział w otwartej nauce
Te możliwości zmieniają nie tylko dzienniki laboratoryjne, ale także politykę i strategię przemysłową. Departament Energii Stanów Zjednoczonych uruchomił pod koniec 2025 roku misję Genesis – krajowe przedsięwzięcie mające na celu połączenie superkomputerów laboratoriów narodowych, platform AI i zautomatyzowanych obiektów w jeden silnik odkrywczy dla priorytetów energetycznych, materiałowych i bezpieczeństwa narodowego. Program przydziela fundusze i infrastrukturę na budowę wspólnych platform i unikanie powielania ogromnych kosztów obliczeniowych wewnątrz kilku prywatnych laboratoriów. Jednocześnie firmy takie jak Google, Meta i Microsoft nadal wyznaczają własne mapy drogowe – jedne udostępniają kod i zbiory danych na zasadach open-source, inne utrzymują modele i infrastrukturę w prywatnych chmurach – co stwarza napięcie między przewagą własnościową a demokratyzacją nauki.
Stawki przemysłowe i cele krótkoterminowe
Dlaczego ma to znaczenie poza laboratoriami? Lepsze materiały są kluczowymi elementami kilku transformacji przemysłowych: gęstszych i bezpieczniejszych baterii ze stałym elektrolitem, perowskitowych lub tandemowych absorberów słonecznych o wyższej wydajności konwersji, przewodników o niższych stratach, a nawet nowych nadprzewodników, które przebudowałyby sieci energetyczne i elektronikę. Firmy technologiczne i programy krajowe wyraźnie orientują te wysiłki wokół celów krytycznych dla klimatu – magazynowania energii na skalę sieciową, wydajnych materiałów fotowoltaicznych i zmniejszenia zależności od minerałów strategicznych. Wyścig komercyjny jest już widoczny: Microsoft promuje MatterGen i MatterSim jako narzędzia dla firm pracujących nad energią i półprzewodnikami, podczas gdy DeepMind, Meta i inni kładą nacisk na wydania społecznościowe i partnerstwa, które będą kierować odkrycia do przemysłowych działów B+R.
Nie każdy obiecujący kandydat zostanie wdrożony na skalę masową. Dominującym wyzwaniem technicznym jest obecnie przejście „od laboratorium do fabryki” (lab-to-fab): zamiana kryształu przyjaznego dla DFT w materiał nadający się do produkcji w ilościach przemysłowych, o powtarzalnych właściwościach i akceptowalnych kosztach. Warunki syntezy, domieszkowanie, granice ziaren i starzenie środowiskowe to praktyczne szczegóły, których modele AI wciąż nie potrafią idealnie przewidzieć. Dlatego weryfikacja eksperymentalna i inżynieria pozostają nieodzowne, nawet gdy liczba prognoz modelowych gwałtownie rośnie.
Gdzie wkracza przejrzystość i powtarzalność
Obok korzyści istnieją realne ryzyka naukowe. Duże, wstępnie wytrenowane modele mogą wydawać się autorytatywne nawet wtedy, gdy ich błędy są subtelne; zbiory danych i modele surogatowe mogą zawierać uprzedzenia lub przybliżenia prowadzące do niepowtarzalnych twierdzeń, jeśli laboratoria nie będą w stanie dokładnie odtworzyć ścieżki syntezy. Odpowiedzią społeczności było położenie nacisku na otwarte zbiory danych, wspólne testy porównawcze i niezależne próby syntezy, właśnie po to, by uniknąć powtórzenia problemu powtarzalności, który dotknął inne dziedziny napędzane przez AI.
Wysiłek ten odbywa się równolegle do prac architektonicznych nad sieciami ekwiwariantnymi, transferowalnymi potencjałami międzyatomowymi ML i strategiami aktywnego uczenia się, które kwantyfikują niepewność – są to kroki techniczne zaprojektowane tak, aby prognozy były nie tylko szybsze, ale także bardziej interpretowalne i wiarygodne. Rezultatem jest mieszanka informatyki, fizyki materii skondensowanej i laboratoryjnej automatyzacji, która przypomina bardziej dyscyplinę inżynieryjną niż zbiór sprytnych trików.
Niezależnie od przyjętej nazwy – alchemia obliczeniowa, AI dla nauki czy inżynieria atomistyczna – fala, która wezbrała w ciągu ostatnich dwóch lat, dotyczy skalowania procesu odkrywania. Zwycięzcami zostaną organizacje, które połączą doskonałe modele, dostępne zbiory danych, powtarzalne potoki eksperymentalne i sprawiedliwy dostęp do mocy obliczeniowej. Kolejnym ważnym nagłówkiem może być komercyjnie opłacalna bateria ze stałym elektrolitem lub nadprzewodnik działający w temperaturze otoczenia, zaproponowany przez model i zrealizowany w fabryce; do tego czasu praca pozostanie interdyscyplinarnym maratonem bieganym z prędkością procesorów GPU.
Źródła
- Nature (praca badawcza GNoME na temat odkrywania milionów struktur krystalicznych przez AI)
- arXiv / OMol25 (zbiór danych Open Molecules 2025 i model UMA)
- Materiały prasowe Lawrence Berkeley National Laboratory (centrum informacyjne Berkeley Lab)
- Publikacje i wpisy na blogu Microsoft Research (MatterGen i MatterSim)
- Komunikaty prasowe Departamentu Energii USA i dokumentacja misji Genesis
Comments
No comments yet. Be the first!