Computergestützte Alchemie: KI schreibt das Periodensystem neu

Physik
Computational Alchemy: AI Rewrites the Periodic Table
Große Tech-Labore nutzen generative und äquivariante KI, um Millionen neuer stabiler Kristalle sowie Verhaltensweisen auf atomarer Ebene vorherzusagen. Damit verwandelt sich die Materialforschung von einem jahrzehntelangen Handwerk in einen algorithmischen Sprint. Dieser Artikel erläutert, wie DeepMind, Meta, Microsoft und das US-Energieministerium (DOE) jene Modelle, Datensätze und robotischen Feedbackschleifen entwickeln, die Forscher als „computergestützte Alchemie“ bezeichnen.

Auf einem Labortisch aus Beton in Kalifornien und auf riesigen GPU-Clustern in Rechenzentren verändert ein neuer Workflow im Stillen das Periodensystem. Anstatt dass Chemiker langsam an Versuchsrezepten feilen, schlagen große neuronale Netze atomare Anordnungen vor, prüfen Hochdurchsatz-Rechenpipelines deren thermodynamisches Schicksal und versuchen Roboterlabore, die vielversprechendsten Entwürfe in wenigen Tagen umzusetzen. Das Ergebnis ist nichts Geringeres als eine Kartierung des chemischen Raums im industriellen Maßstab: Millionen hypothetischer Kristalle, von denen Hunderttausende als thermodynamisch stabil eingestuft wurden, und ein neues Vokabular – „computergestützte Alchemie“ –, um Silizium, Lithium und Kobalt mithilfe von Software in technologische Erfindungen zu verwandeln.

KI auf der Skala der Materie

Einer der ersten öffentlichen Meilensteine dieser Transformation war die Materialforschungsinitiative von Google DeepMind. Diese nutzte einen graph-neuronalen Ansatz namens GNoME (Graph Networks for Materials Exploration), um Kombinationen von Elementen und Gittergeometrien zu scannen und rund 2,2 Millionen potenzielle Kristallstrukturen vorherzusagen. Davon wurden etwa 380.000 nach konventionellen thermodynamischen Kriterien als hochstabil identifiziert. DeepMind veröffentlichte die besten Kandidaten und dokumentierte experimentelle Folgestudien, die Hunderte von Vorhersagen validierten. Dies verdeutlicht, wie ein datengesteuerter Kreislauf das Universum der zugänglichen Materialien in Monaten um das vervielfachen kann, was früher Jahrhunderte schrittweiser Entdeckungen dauerte.

Die Fundamental AI Research-Gruppe von Meta schlug 2025 einen komplementären Weg ein: Anstatt nur Kristalle zu generieren, veröffentlichte sie massive atomistische Datensätze und vortrainierte interatomare Modelle, die als wiederverwendbare physikalische Priors dienen sollen. Der Datensatz Open Molecules 2025 (OMol25) und das Universal Model for Atoms (UMA) liefern Hunderte Millionen Berechnungen auf DFT-Niveau (Dichtefunktionaltheorie) und maschinell gelernte interatomare Potenziale. Diese können feinjustiert oder in nachgelagerte Entdeckungspipelines integriert werden. Das erklärte Ziel ist es, Forschern ein fertiges „computergestütztes Mikroskop“ und ein schnelles Kraftfeld zur Verfügung zu stellen, damit mehr Teams – in Universitäten und Startups – realistische, groß angelegte Simulationen durchführen können, ohne selbst den Supercomputer besitzen zu müssen, der die Trainingsdaten generiert hat.

Unterschiedliche Architekturen, die gleiche Mission

Obwohl die Schlagzeilen diese Bemühungen zusammenfassen, unterscheiden sich die zugrunde liegenden KI-Familien, und diese Unterschiede sind von Bedeutung. DeepMinds GNoME stützt sich auf graph-neuronale Netzwerke, die darauf optimiert sind, Bildungsenergien vorherzusagen und Strukturen durch kompositorische und strukturelle Suche vorzuschlagen. Microsoft Research hat zwei Geschwisterprojekte veröffentlicht: MatterGen, ein generatives Diffusionsmodell, das anorganische Materialien basierend auf Zielvorgaben vorschlägt, und MatterSim, einen gelernten Simulator, der Energien und Reaktionen über verschiedene Elemente, Temperaturen und Drücke hinweg vorhersagt. Zusammen werden diese Modelle als Generator-Emulator-Paar beschrieben, das in der Lage ist, Vorschläge zu unterbreiten und diese in silico schnell zu sieben.

Den Kreislauf schließen: Roboter und aktives Lernen

Vorhersagen allein verändern die physische Welt nicht; das geschieht durch Synthese und Charakterisierung. Um zu nutzbaren Erfindungen zu gelangen, verknüpfen Labore KI-Modelle mit automatisierten Experimenten und einer Active-Learning-Schleife. Ein Modell schlägt einen Kandidaten vor, Hochdurchsatz-DFT oder ML-Surrogatmodelle schätzen Stabilität und Eigenschaften ab, ein automatisiertes oder menschliches Labor versucht die Synthese, und das gemessene Ergebnis fließt als gelabelte Daten an das Modell zurück. DeepMind und andere berichten von Kooperationen mit automatisierten Einrichtungen – wie den autonomen Plattformen des Lawrence Berkeley National Laboratory –, die bereits eine beträchtliche Anzahl von modellgestützten Materialien synthetisiert haben, was den praktischen Nutzen der Closed-Loop-Entdeckung belegt. Dieser „Lab-in-the-Loop“-Ansatz ist es, der Vorhersagen in produktives Engineering verwandelt.

Diese Kombination – generative Modelle, schnelle ML-Simulatoren und Robotik – erzeugt ein sich beschleunigendes „Schwungrad“: Bessere Vorhersagen führen zu einfacheren Synthesen und mehr Trainingsdaten, was wiederum die nächsten Vorhersagen verbessert. Die Konsequenzen sind spürbar: Was früher ein jahrzehntelanger Weg vom Konzept zum Prototyp war, kann in günstigen Fällen auf Monate oder wenige Jahre schrumpfen.

Politik, Rechenleistung und die Spaltung in der Open Science

Diese Fähigkeiten verändern nicht nur die Laborbücher, sondern auch die Politik und die Industriestatistik. Das US-Energieministerium startete Ende 2025 die Genesis Mission, eine nationale Initiative, um Supercomputer nationaler Labore, KI-Plattformen und automatisierte Einrichtungen zu einer einzigen Entdeckungsmaschine für Energie-, Material- und nationale Sicherheitsprioritäten zu vereinen. Das Programm stellt Mittel und Infrastruktur bereit, um gemeinsame Plattformen aufzubauen und die Duplizierung immenser Rechenkosten innerhalb weniger privater Labore zu vermeiden. Gleichzeitig setzen Unternehmen wie Google, Meta und Microsoft weiterhin ihre eigenen Roadmaps um – einige stellen Code und Datensätze als Open Source zur Verfügung, andere behalten Modelle und Infrastruktur in privaten Clouds –, was ein Spannungsfeld zwischen proprietären Vorteilen und wissenschaftlicher Demokratisierung schafft.

Industrielle Tragweite und kurzfristige Ziele

Warum spielt das außerhalb der Labore eine Rolle? Bessere Materialien sind die Schlüsselkomponenten für mehrere industrielle Transformationen: dichtere und sicherere Festkörperbatterien, Perowskit- oder Tandem-Solarabsorber mit höherem Wirkungsgrad, verlustärmere Leiter und sogar neue Supraleiter, die Stromnetze und Elektronik revolutionieren würden. Tech-Unternehmen und nationale Programme richten diese Bemühungen explizit auf klimakritische Ziele aus – Netzspeicher, effiziente Photovoltaikmaterialien und eine verringerte Abhängigkeit von strategischen Mineralen. Der kommerzielle Wettbewerb ist bereits sichtbar: Microsoft bewirbt MatterGen und MatterSim als Werkzeuge für Firmen, die an Energie und Halbleitern arbeiten, während DeepMind, Meta und andere auf Community-Releases und Partnerschaften setzen, die Entdeckungen in die industrielle Forschung und Entwicklung leiten sollen.

Nicht jeder vielversprechende Kandidat wird skalierbar sein. Die größte technische Herausforderung ist derzeit „Lab-to-Fab“: die Umwandlung eines DFT-freundlichen Kristalls in ein fertigbares Material in industriellen Mengen, mit reproduzierbaren Eigenschaften und akzeptablen Kosten. Synthesebedingungen, Dotierung, Korngrenzen und Alterung unter Umwelteinflüssen sind praktische Details, die KI-Modelle nur schwer perfekt vorhersagen können. Deshalb bleiben experimentelle Validierung und Engineering unverzichtbar, selbst wenn die Modellvorhersagen sprunghaft ansteigen.

Wo Transparenz und Reproduzierbarkeit ins Spiel kommen

Neben den Chancen gibt es auch reale wissenschaftliche Risiken. Große vortrainierte Modelle können autoritär wirken, selbst wenn ihre Fehlermodi subtil sind; Datensätze und Surrogatmodelle können Verzerrungen oder Näherungen enthalten, die zu nicht reproduzierbaren Behauptungen führen, wenn Labore den Syntheseweg nicht exakt replizieren können. Die Reaktion der Community betont daher offene Datensätze, gemeinsame Benchmarks und unabhängige Synthesebemühungen, um eine Wiederholung des Reproduzierbarkeitsproblems zu vermeiden, das andere KI-gesteuerte Bereiche belastet hat.

Diese Bemühungen laufen parallel zur architektonischen Arbeit an äquivarianten Netzwerken, übertragbaren interatomaren ML-Potenzialen und Active-Learning-Strategien zur Quantifizierung von Unsicherheit – technische Schritte, die darauf abzielen, Vorhersagen nicht nur schneller, sondern auch interpretierbarer und zuverlässiger zu machen. Das Ergebnis ist eine Mischung aus Informatik, Festkörperphysik und Laborautomatisierung, die sich eher wie eine Ingenieursdisziplin als wie eine Sammlung cleverer Hacks liest.

Welchen Namen man dem Ganzen auch gibt – computergestützte Alchemie, KI für die Wissenschaft oder atomistisches Engineering –, die Welle der letzten zwei Jahre dreht sich darum, den Entdeckungsprozess zu skalieren. Die Gewinner werden Organisationen sein, die exzellente Modelle, zugängliche Datensätze, reproduzierbare experimentelle Pipelines und fairen Zugang zu Rechenleistung kombinieren. Die nächste große Schlagzeile könnte eine kommerziell lebensfähige Festkörperbatterie oder ein Raumtemperatur-Supraleiter sein, der von einem Modell vorgeschlagen und in einer Fabrik realisiert wurde; bis dahin bleibt die Arbeit ein interdisziplinärer Marathon in GPU-Geschwindigkeit.

Quellen

  • Nature (GNoME-Forschungspapier über die KI-Entdeckung von Millionen von Kristallstrukturen)
  • arXiv / OMol25 (Open Molecules 2025 Datensatz und UMA-Modell)
  • Lawrence Berkeley National Laboratory Pressematerialien (Berkeley Lab News Center)
  • Microsoft Research Publikationen und Blogposts (MatterGen und MatterSim)
  • Pressemitteilungen des U.S. Department of Energy und Dokumentation der Genesis Mission
Mattias Risberg

Mattias Risberg

Cologne-based science & technology reporter tracking semiconductors, space policy and data-driven investigations.

University of Cologne (Universität zu Köln) • Cologne, Germany

Readers

Leserfragen beantwortet

Q Was versteht man in diesem Zusammenhang unter computergestützter Alchemie und welche KI-Werkzeuge treiben sie an?
A Computergestützte Alchemie bezieht sich auf den Einsatz von KI zur Kartierung des chemischen Raums und zur Umwandlung softwaregenerierter Entwürfe in reale Materialien. Dies geschieht durch das schnelle Vorschlagen von Atomanordnungen, das Testen ihrer thermodynamischen Stabilität und die Validierung von Vorhersagen durch Simulationen und Experimente. Das Vorhaben kombiniert DeepMinds Graph Neural Networks (GNoME), Microsofts MatterGen und MatterSim sowie die OMol25/UMA-Daten mit automatisierter, robotergestützter Synthese, um den Kreislauf zu schließen.
Q Welchen Meilenstein hat DeepMind mit GNoME erreicht?
A Ein Meilenstein der Materialforschung von DeepMind war der Einsatz von GNoME zum Scannen von Elementkombinationen und Gittergeometrien, wobei rund 2,2 Millionen potenzielle Kristallstrukturen vorhergesagt wurden. Davon wurden etwa 380.000 nach herkömmlichen thermodynamischen Kriterien als hochstabil eingestuft. Das Team veröffentlichte die besten Kandidaten und dokumentierte experimentelle Folgestudien, die hunderte von Vorhersagen validierten, was einen datengesteuerten Kreislauf veranschaulicht, der Entdeckungen von Jahrhunderten auf Monate beschleunigt.
Q Wie schaffen KI-Modelle und Robotik einen geschlossenen Kreislauf zwischen Vorhersage und Experiment?
A Ein Modell schlägt einen Kandidaten vor, Hochdurchsatz-DFT- oder ML-Surrogate schätzen dessen Stabilität und Eigenschaften ab, und automatisierte oder menschliche Labore versuchen die Synthese. Die gemessenen Ergebnisse werden als gelabelte Daten zurückgeführt, um die Modelle neu zu trainieren. Kooperationen mit autonomen Plattformen, wie dem Lawrence Berkeley National Laboratory, demonstrieren den praktischen Nutzen der Lab-in-the-Loop-Entdeckung und treiben ein sich selbst verbesserndes Schwungrad an.
Q Welche Auswirkungen ergeben sich für Politik und Industrie und was sind die größten bevorstehenden Herausforderungen?
A Die Auswirkungen auf Politik und Industrie werden von der Genesis Mission geprägt, einem 2025 gestarteten Programm des DOE, um Supercomputing, KI-Plattformen und automatisierte Einrichtungen zu einer gemeinsamen Entdeckungsmaschine für Energie, Materialien und nationale Sicherheitsprioritäten zu verschmelzen. Währenddessen wägen Unternehmen Open-Source-Veröffentlichungen gegen private Roadmaps ab, was Spannungen zwischen Demokratisierung und proprietären Vorteilen erzeugt. Die zentrale Herausforderung bleibt der Schritt vom Labor zur Fabrik (Lab-to-Fab): die Umwandlung von DFT-freundlichen Kristallen in großindustriell fertigbare Materialien mit reproduzierbaren Eigenschaften und erschwinglichen Kosten.

Haben Sie eine Frage zu diesem Artikel?

Fragen werden vor der Veröffentlichung geprüft. Wir beantworten die besten!

Kommentare

Noch keine Kommentare. Seien Sie der Erste!