Auf einem Labortisch aus Beton in Kalifornien und auf riesigen GPU-Clustern in Rechenzentren verändert ein neuer Workflow im Stillen das Periodensystem. Anstatt dass Chemiker langsam an Versuchsrezepten feilen, schlagen große neuronale Netze atomare Anordnungen vor, prüfen Hochdurchsatz-Rechenpipelines deren thermodynamisches Schicksal und versuchen Roboterlabore, die vielversprechendsten Entwürfe in wenigen Tagen umzusetzen. Das Ergebnis ist nichts Geringeres als eine Kartierung des chemischen Raums im industriellen Maßstab: Millionen hypothetischer Kristalle, von denen Hunderttausende als thermodynamisch stabil eingestuft wurden, und ein neues Vokabular – „computergestützte Alchemie“ –, um Silizium, Lithium und Kobalt mithilfe von Software in technologische Erfindungen zu verwandeln.
KI auf der Skala der Materie
Einer der ersten öffentlichen Meilensteine dieser Transformation war die Materialforschungsinitiative von Google DeepMind. Diese nutzte einen graph-neuronalen Ansatz namens GNoME (Graph Networks for Materials Exploration), um Kombinationen von Elementen und Gittergeometrien zu scannen und rund 2,2 Millionen potenzielle Kristallstrukturen vorherzusagen. Davon wurden etwa 380.000 nach konventionellen thermodynamischen Kriterien als hochstabil identifiziert. DeepMind veröffentlichte die besten Kandidaten und dokumentierte experimentelle Folgestudien, die Hunderte von Vorhersagen validierten. Dies verdeutlicht, wie ein datengesteuerter Kreislauf das Universum der zugänglichen Materialien in Monaten um das vervielfachen kann, was früher Jahrhunderte schrittweiser Entdeckungen dauerte.
Die Fundamental AI Research-Gruppe von Meta schlug 2025 einen komplementären Weg ein: Anstatt nur Kristalle zu generieren, veröffentlichte sie massive atomistische Datensätze und vortrainierte interatomare Modelle, die als wiederverwendbare physikalische Priors dienen sollen. Der Datensatz Open Molecules 2025 (OMol25) und das Universal Model for Atoms (UMA) liefern Hunderte Millionen Berechnungen auf DFT-Niveau (Dichtefunktionaltheorie) und maschinell gelernte interatomare Potenziale. Diese können feinjustiert oder in nachgelagerte Entdeckungspipelines integriert werden. Das erklärte Ziel ist es, Forschern ein fertiges „computergestütztes Mikroskop“ und ein schnelles Kraftfeld zur Verfügung zu stellen, damit mehr Teams – in Universitäten und Startups – realistische, groß angelegte Simulationen durchführen können, ohne selbst den Supercomputer besitzen zu müssen, der die Trainingsdaten generiert hat.
Unterschiedliche Architekturen, die gleiche Mission
Obwohl die Schlagzeilen diese Bemühungen zusammenfassen, unterscheiden sich die zugrunde liegenden KI-Familien, und diese Unterschiede sind von Bedeutung. DeepMinds GNoME stützt sich auf graph-neuronale Netzwerke, die darauf optimiert sind, Bildungsenergien vorherzusagen und Strukturen durch kompositorische und strukturelle Suche vorzuschlagen. Microsoft Research hat zwei Geschwisterprojekte veröffentlicht: MatterGen, ein generatives Diffusionsmodell, das anorganische Materialien basierend auf Zielvorgaben vorschlägt, und MatterSim, einen gelernten Simulator, der Energien und Reaktionen über verschiedene Elemente, Temperaturen und Drücke hinweg vorhersagt. Zusammen werden diese Modelle als Generator-Emulator-Paar beschrieben, das in der Lage ist, Vorschläge zu unterbreiten und diese in silico schnell zu sieben.
Den Kreislauf schließen: Roboter und aktives Lernen
Vorhersagen allein verändern die physische Welt nicht; das geschieht durch Synthese und Charakterisierung. Um zu nutzbaren Erfindungen zu gelangen, verknüpfen Labore KI-Modelle mit automatisierten Experimenten und einer Active-Learning-Schleife. Ein Modell schlägt einen Kandidaten vor, Hochdurchsatz-DFT oder ML-Surrogatmodelle schätzen Stabilität und Eigenschaften ab, ein automatisiertes oder menschliches Labor versucht die Synthese, und das gemessene Ergebnis fließt als gelabelte Daten an das Modell zurück. DeepMind und andere berichten von Kooperationen mit automatisierten Einrichtungen – wie den autonomen Plattformen des Lawrence Berkeley National Laboratory –, die bereits eine beträchtliche Anzahl von modellgestützten Materialien synthetisiert haben, was den praktischen Nutzen der Closed-Loop-Entdeckung belegt. Dieser „Lab-in-the-Loop“-Ansatz ist es, der Vorhersagen in produktives Engineering verwandelt.
Diese Kombination – generative Modelle, schnelle ML-Simulatoren und Robotik – erzeugt ein sich beschleunigendes „Schwungrad“: Bessere Vorhersagen führen zu einfacheren Synthesen und mehr Trainingsdaten, was wiederum die nächsten Vorhersagen verbessert. Die Konsequenzen sind spürbar: Was früher ein jahrzehntelanger Weg vom Konzept zum Prototyp war, kann in günstigen Fällen auf Monate oder wenige Jahre schrumpfen.
Politik, Rechenleistung und die Spaltung in der Open Science
Diese Fähigkeiten verändern nicht nur die Laborbücher, sondern auch die Politik und die Industriestatistik. Das US-Energieministerium startete Ende 2025 die Genesis Mission, eine nationale Initiative, um Supercomputer nationaler Labore, KI-Plattformen und automatisierte Einrichtungen zu einer einzigen Entdeckungsmaschine für Energie-, Material- und nationale Sicherheitsprioritäten zu vereinen. Das Programm stellt Mittel und Infrastruktur bereit, um gemeinsame Plattformen aufzubauen und die Duplizierung immenser Rechenkosten innerhalb weniger privater Labore zu vermeiden. Gleichzeitig setzen Unternehmen wie Google, Meta und Microsoft weiterhin ihre eigenen Roadmaps um – einige stellen Code und Datensätze als Open Source zur Verfügung, andere behalten Modelle und Infrastruktur in privaten Clouds –, was ein Spannungsfeld zwischen proprietären Vorteilen und wissenschaftlicher Demokratisierung schafft.
Industrielle Tragweite und kurzfristige Ziele
Warum spielt das außerhalb der Labore eine Rolle? Bessere Materialien sind die Schlüsselkomponenten für mehrere industrielle Transformationen: dichtere und sicherere Festkörperbatterien, Perowskit- oder Tandem-Solarabsorber mit höherem Wirkungsgrad, verlustärmere Leiter und sogar neue Supraleiter, die Stromnetze und Elektronik revolutionieren würden. Tech-Unternehmen und nationale Programme richten diese Bemühungen explizit auf klimakritische Ziele aus – Netzspeicher, effiziente Photovoltaikmaterialien und eine verringerte Abhängigkeit von strategischen Mineralen. Der kommerzielle Wettbewerb ist bereits sichtbar: Microsoft bewirbt MatterGen und MatterSim als Werkzeuge für Firmen, die an Energie und Halbleitern arbeiten, während DeepMind, Meta und andere auf Community-Releases und Partnerschaften setzen, die Entdeckungen in die industrielle Forschung und Entwicklung leiten sollen.
Nicht jeder vielversprechende Kandidat wird skalierbar sein. Die größte technische Herausforderung ist derzeit „Lab-to-Fab“: die Umwandlung eines DFT-freundlichen Kristalls in ein fertigbares Material in industriellen Mengen, mit reproduzierbaren Eigenschaften und akzeptablen Kosten. Synthesebedingungen, Dotierung, Korngrenzen und Alterung unter Umwelteinflüssen sind praktische Details, die KI-Modelle nur schwer perfekt vorhersagen können. Deshalb bleiben experimentelle Validierung und Engineering unverzichtbar, selbst wenn die Modellvorhersagen sprunghaft ansteigen.
Wo Transparenz und Reproduzierbarkeit ins Spiel kommen
Neben den Chancen gibt es auch reale wissenschaftliche Risiken. Große vortrainierte Modelle können autoritär wirken, selbst wenn ihre Fehlermodi subtil sind; Datensätze und Surrogatmodelle können Verzerrungen oder Näherungen enthalten, die zu nicht reproduzierbaren Behauptungen führen, wenn Labore den Syntheseweg nicht exakt replizieren können. Die Reaktion der Community betont daher offene Datensätze, gemeinsame Benchmarks und unabhängige Synthesebemühungen, um eine Wiederholung des Reproduzierbarkeitsproblems zu vermeiden, das andere KI-gesteuerte Bereiche belastet hat.
Diese Bemühungen laufen parallel zur architektonischen Arbeit an äquivarianten Netzwerken, übertragbaren interatomaren ML-Potenzialen und Active-Learning-Strategien zur Quantifizierung von Unsicherheit – technische Schritte, die darauf abzielen, Vorhersagen nicht nur schneller, sondern auch interpretierbarer und zuverlässiger zu machen. Das Ergebnis ist eine Mischung aus Informatik, Festkörperphysik und Laborautomatisierung, die sich eher wie eine Ingenieursdisziplin als wie eine Sammlung cleverer Hacks liest.
Welchen Namen man dem Ganzen auch gibt – computergestützte Alchemie, KI für die Wissenschaft oder atomistisches Engineering –, die Welle der letzten zwei Jahre dreht sich darum, den Entdeckungsprozess zu skalieren. Die Gewinner werden Organisationen sein, die exzellente Modelle, zugängliche Datensätze, reproduzierbare experimentelle Pipelines und fairen Zugang zu Rechenleistung kombinieren. Die nächste große Schlagzeile könnte eine kommerziell lebensfähige Festkörperbatterie oder ein Raumtemperatur-Supraleiter sein, der von einem Modell vorgeschlagen und in einer Fabrik realisiert wurde; bis dahin bleibt die Arbeit ein interdisziplinärer Marathon in GPU-Geschwindigkeit.
Quellen
- Nature (GNoME-Forschungspapier über die KI-Entdeckung von Millionen von Kristallstrukturen)
- arXiv / OMol25 (Open Molecules 2025 Datensatz und UMA-Modell)
- Lawrence Berkeley National Laboratory Pressematerialien (Berkeley Lab News Center)
- Microsoft Research Publikationen und Blogposts (MatterGen und MatterSim)
- Pressemitteilungen des U.S. Department of Energy und Dokumentation der Genesis Mission
Kommentare
Noch keine Kommentare. Seien Sie der Erste!