Alquimia computacional: la IA reescribe la tabla periódica

Física
Computational Alchemy: AI Rewrites the Periodic Table
Los laboratorios de las grandes tecnológicas utilizan IA generativa y equivariante para predecir millones de nuevos cristales estables y comportamientos a escala atómica, transformando el descubrimiento de materiales de un oficio de décadas en una carrera algorítmica. Este artículo explica cómo DeepMind, Meta, Microsoft y el Departamento de Energía de EE. UU. (DOE) están desarrollando los modelos, conjuntos de datos y bucles de retroalimentación robótica detrás de lo que los investigadores llaman 'alquimia computacional'.

En un banco de laboratorio de hormigón en California y en vastos clústeres de GPU en centros de datos, un nuevo flujo de trabajo está transformando silenciosamente la tabla periódica. En lugar de químicos ajustando lentamente las recetas experimentales, grandes redes neuronales proponen disposiciones atómicas, tuberías de computación de alto rendimiento comprueban su destino termodinámico y laboratorios robóticos intentan fabricar los diseños ganadores en cuestión de días. El resultado es nada menos que un mapeo a escala industrial del espacio químico: millones de cristales hipotéticos, cientos de miles marcados como termodinámicamente estables y un nuevo vocabulario —"alquimia computacional"— para convertir el silicio, el litio y el cobalto en inventos diseñados mediante software.

IA a la escala de la materia

Uno de los primeros hitos públicos en esta transformación provino del esfuerzo en materiales de Google DeepMind, que utilizó un enfoque neuronal de grafos llamado GNoME (Graph Networks for Materials Exploration) para escanear combinaciones de elementos y geometrías de red, y predecir aproximadamente 2,2 millones de estructuras cristalinas candidatas, de las cuales unas 380.000 fueron identificadas como altamente estables mediante criterios termodinámicos convencionales. DeepMind publicó los principales candidatos y documentó seguimientos experimentales que validaron cientos de predicciones, ilustrando cómo un ciclo impulsado por datos puede multiplicar en meses el universo de materiales accesibles, algo que solía requerir siglos de descubrimientos incrementales.

El grupo Fundamental AI Research de Meta tomó una ruta complementaria en 2025: en lugar de solo generar cristales, publicó conjuntos de datos atomísticos masivos y modelos interatómicos preentrenados destinados a actuar como bases físicas reutilizables. El conjunto de datos Open Molecules 2025 (OMol25) y el Universal Model for Atoms (UMA) proporcionan cientos de millones de cálculos a nivel DFT (Teoría de la Función de la Densidad) y potenciales interatómicos aprendidos por máquina que pueden ajustarse o integrarse en procesos de descubrimiento posteriores. El objetivo declarado es proporcionar a los investigadores un microscopio computacional listo para usar y un campo de fuerza rápido, de modo que más equipos —dentro de universidades y startups— puedan ejecutar simulaciones realistas a gran escala sin poseer la supercomputadora que generó los datos de entrenamiento.

Diferentes arquitecturas, la misma misión

Aunque los titulares agrupan estos esfuerzos, las familias de IA subyacentes son diferentes y las diferencias importan. GNoME de DeepMind se basa en redes neuronales de grafos optimizadas para predecir energías de formación y proponer estructuras mediante búsquedas compositivas y estructurales. Microsoft Research ha publicado dos proyectos hermanos: MatterGen, un modelo de difusión generativa que propone materiales inorgánicos condicionados a propiedades específicas, y MatterSim, un simulador entrenado que predice energías y respuestas a través de diversos elementos, temperaturas y presiones. Juntos, estos modelos se describen como un par generador/emulador capaz de proponer candidatos y evaluarlos rápidamente in silico.

Cerrando el ciclo: robots y aprendizaje activo

Las predicciones por sí solas no cambian el mundo físico; la síntesis y la caracterización sí lo hacen. Para llegar a inventos utilizables, los laboratorios están vinculando los modelos de IA con la experimentación automatizada y un ciclo de aprendizaje activo. Un modelo propone un candidato, sustitutos de DFT o aprendizaje automático de alto rendimiento estiman la estabilidad y las propiedades, un laboratorio automatizado o humano intenta la síntesis, y el resultado medido se devuelve al modelo como datos etiquetados. DeepMind y otros informan de colaboraciones con instalaciones automatizadas —como las plataformas autónomas del Lawrence Berkeley National Laboratory— que ya han sintetizado un conjunto no trivial de materiales propuestos por modelos, demostrando el beneficio práctico del descubrimiento de ciclo cerrado. Este enfoque de "laboratorio en el ciclo" (lab-in-the-loop) es lo que transforma la predicción en ingeniería productiva.

Esa combinación —modelos generativos, simuladores rápidos de aprendizaje automático y robótica— crea un "volante de inercia" acelerado: mejores predicciones producen síntesis más fáciles y más datos de entrenamiento, lo que a su vez mejora las siguientes predicciones. Las consecuencias son palpables: lo que solía ser un camino de varias décadas desde el concepto hasta el prototipo puede, en casos favorables, reducirse a meses o unos pocos años.

Política, computación y la brecha de la ciencia abierta

Estas capacidades remodelan no solo los cuadernos de laboratorio, sino también la política y la estrategia industrial. El Departamento de Energía de los Estados Unidos lanzó la Misión Génesis a finales de 2025, un esfuerzo nacional para combinar supercomputadoras de laboratorios nacionales, plataformas de IA e instalaciones automatizadas en un único motor de descubrimiento para prioridades de energía, materiales y seguridad nacional. El programa asigna fondos e infraestructura para construir plataformas compartidas y evitar la duplicación del inmenso coste computacional dentro de unos pocos laboratorios privados. Al mismo tiempo, firmas como Google, Meta y Microsoft continúan trazando sus propias hojas de ruta —algunas liberando código y conjuntos de datos, otras manteniendo modelos e infraestructura tras nubes privadas—, creando una tensión entre la ventaja propietaria y la democratización científica.

Intereses industriales y objetivos a corto plazo

¿Por qué importa todo esto fuera de los laboratorios? Los mejores materiales son los insumos clave para varias transiciones industriales: baterías de estado sólido más densas y seguras, absorbedores solares de perovskita o en tándem con mayor eficiencia de conversión, conductores de menor pérdida e incluso nuevos superconductores que transformarían las redes eléctricas y la electrónica. Las empresas tecnológicas y los programas nacionales están orientando explícitamente estos esfuerzos hacia objetivos críticos para el clima: almacenamiento a escala de red, materiales fotovoltaicos eficientes y reducción de la dependencia de minerales estratégicos. La carrera comercial ya es visible: Microsoft promociona MatterGen y MatterSim como herramientas para empresas que trabajan en energía y semiconductores, mientras que DeepMind, Meta y otros enfatizan las publicaciones comunitarias y las asociaciones que canalizarán los descubrimientos hacia la I+D industrial.

No todos los candidatos prometedores llegarán a escala comercial. El principal desafío técnico actual es el "paso del laboratorio a la fábrica": convertir un cristal apto para DFT en un material fabricable a volúmenes industriales, con propiedades reproducibles y costes aceptables. Las condiciones de síntesis, el dopaje, los límites de grano y el envejecimiento ambiental son detalles prácticos que los modelos de IA todavía tienen dificultades para predecir perfectamente. Por ello, la validación experimental y la ingeniería siguen siendo indispensables incluso mientras proliferan las predicciones de los modelos.

Donde entran la transparencia y la reproducibilidad

Existen riesgos científicos reales junto a las ventajas. Los grandes modelos preentrenados pueden parecer autoritarios incluso cuando sus modos de error son sutiles; los conjuntos de datos y los modelos sustitutos pueden contener sesgos o aproximaciones que conduzcan a afirmaciones irreproducibles si los laboratorios no pueden replicar exactamente la ruta de síntesis. La respuesta de la comunidad ha enfatizado los conjuntos de datos abiertos, los puntos de referencia compartidos y los esfuerzos de síntesis independientes, precisamente para evitar una repetición del problema de reproducibilidad que ha afectado a otros campos impulsados por la IA.

Ese esfuerzo está ocurriendo en paralelo al trabajo arquitectónico en redes equivariantes, potenciales interatómicos de aprendizaje automático transferibles y estrategias de aprendizaje activo que cuantifican la incertidumbre; pasos técnicos diseñados para hacer que las predicciones no solo sean más rápidas, sino también más interpretables y fiables. El resultado es una mezcla de ciencias de la computación, física de la materia condensada y automatización de laboratorio que se asemeja más a una disciplina de ingeniería que a una colección de trucos ingeniosos.

Independientemente de la etiqueta que se le ponga —alquimia computacional, IA para la ciencia o ingeniería atomística—, la ola que rompió en los últimos dos años trata sobre escalar el proceso de descubrimiento. Los ganadores serán las organizaciones que combinen modelos excelentes, conjuntos de datos accesibles, procesos experimentales reproducibles y un acceso justo a la computación. El próximo gran titular podría ser una batería de estado sólido comercialmente viable o un superconductor a temperatura ambiente propuesto por un modelo y realizado en una fábrica; hasta entonces, el trabajo seguirá siendo un maratón interdisciplinario corrido a velocidad de GPU.

Fuentes

  • Nature (artículo de investigación de GNoME sobre el descubrimiento por IA de millones de estructuras cristalinas)
  • arXiv / OMol25 (conjunto de datos Open Molecules 2025 y modelo UMA)
  • Materiales de prensa del Lawrence Berkeley National Laboratory (centro de noticias del Berkeley Lab)
  • Publicaciones y entradas de blog de Microsoft Research (MatterGen y MatterSim)
  • Comunicados de prensa del Departamento de Energía de EE. UU. y documentación de la Misión Génesis
Mattias Risberg

Mattias Risberg

Cologne-based science & technology reporter tracking semiconductors, space policy and data-driven investigations.

University of Cologne (Universität zu Köln) • Cologne, Germany

Readers

Readers Questions Answered

Q ¿Qué es la alquimia computacional en este contexto y qué herramientas de IA la impulsan?
A La alquimia computacional se refiere al uso de la IA para mapear el espacio químico y convertir diseños generados por software en materiales reales mediante la propuesta rápida de disposiciones atómicas, la comprobación de su estabilidad termodinámica y la validación de las predicciones mediante simulaciones y experimentos. El esfuerzo combina las redes neuronales de grafos de DeepMind (GNoME), MatterGen y MatterSim de Microsoft, y los datos de OMol25/UMA con síntesis robótica automatizada para cerrar el ciclo.
Q ¿Qué hito logró DeepMind con GNoME?
A Un hito del esfuerzo en materiales de DeepMind fue el uso de GNoME para escanear combinaciones de elementos y geometrías de red, prediciendo aproximadamente 2,2 millones de estructuras cristalinas candidatas, de las cuales unas 380.000 fueron identificadas como altamente estables según criterios termodinámicos convencionales. El equipo publicó las mejores candidatas y documentó seguimientos experimentales que validaron cientos de predicciones, ilustrando un ciclo impulsado por datos que acelera el descubrimiento de siglos a meses.
Q ¿Cómo crean los modelos de IA y la robótica un ciclo cerrado entre la predicción y el experimento?
A Un modelo propone un candidato, sustitutos de DFT o ML de alto rendimiento estiman su estabilidad y propiedades, y laboratorios automatizados o humanos intentan la síntesis. Los resultados medidos se retroalimentan como datos etiquetados para reentrenar los modelos. Las colaboraciones con plataformas autónomas, como el Laboratorio Nacional Lawrence Berkeley, demuestran el beneficio práctico del descubrimiento 'lab-in-the-loop', impulsando un sistema de mejora continua.
Q ¿Cuáles son las implicaciones políticas e industriales y los principales retos que se avecinan?
A Las implicaciones políticas e industriales están marcadas por la Misión Génesis, un programa del DOE iniciado en 2025 para fusionar la supercomputación, las plataformas de IA y las instalaciones automatizadas en un motor de descubrimiento compartido para prioridades de energía, materiales y seguridad nacional. Mientras tanto, las empresas equilibran los lanzamientos de código abierto frente a las hojas de ruta privadas, creando tensión entre la democratización y la ventaja competitiva. El reto central sigue siendo el paso del laboratorio a la fabricación (lab-to-fab): convertir cristales compatibles con DFT en materiales fabricables a escala con propiedades reproducibles y costes asequibles.

Have a question about this article?

Questions are reviewed before publishing. We'll answer the best ones!

Comments

No comments yet. Be the first!