En un banco de laboratorio de hormigón en California y en vastos clústeres de GPU en centros de datos, un nuevo flujo de trabajo está transformando silenciosamente la tabla periódica. En lugar de químicos ajustando lentamente las recetas experimentales, grandes redes neuronales proponen disposiciones atómicas, tuberías de computación de alto rendimiento comprueban su destino termodinámico y laboratorios robóticos intentan fabricar los diseños ganadores en cuestión de días. El resultado es nada menos que un mapeo a escala industrial del espacio químico: millones de cristales hipotéticos, cientos de miles marcados como termodinámicamente estables y un nuevo vocabulario —"alquimia computacional"— para convertir el silicio, el litio y el cobalto en inventos diseñados mediante software.
IA a la escala de la materia
Uno de los primeros hitos públicos en esta transformación provino del esfuerzo en materiales de Google DeepMind, que utilizó un enfoque neuronal de grafos llamado GNoME (Graph Networks for Materials Exploration) para escanear combinaciones de elementos y geometrías de red, y predecir aproximadamente 2,2 millones de estructuras cristalinas candidatas, de las cuales unas 380.000 fueron identificadas como altamente estables mediante criterios termodinámicos convencionales. DeepMind publicó los principales candidatos y documentó seguimientos experimentales que validaron cientos de predicciones, ilustrando cómo un ciclo impulsado por datos puede multiplicar en meses el universo de materiales accesibles, algo que solía requerir siglos de descubrimientos incrementales.
El grupo Fundamental AI Research de Meta tomó una ruta complementaria en 2025: en lugar de solo generar cristales, publicó conjuntos de datos atomísticos masivos y modelos interatómicos preentrenados destinados a actuar como bases físicas reutilizables. El conjunto de datos Open Molecules 2025 (OMol25) y el Universal Model for Atoms (UMA) proporcionan cientos de millones de cálculos a nivel DFT (Teoría de la Función de la Densidad) y potenciales interatómicos aprendidos por máquina que pueden ajustarse o integrarse en procesos de descubrimiento posteriores. El objetivo declarado es proporcionar a los investigadores un microscopio computacional listo para usar y un campo de fuerza rápido, de modo que más equipos —dentro de universidades y startups— puedan ejecutar simulaciones realistas a gran escala sin poseer la supercomputadora que generó los datos de entrenamiento.
Diferentes arquitecturas, la misma misión
Aunque los titulares agrupan estos esfuerzos, las familias de IA subyacentes son diferentes y las diferencias importan. GNoME de DeepMind se basa en redes neuronales de grafos optimizadas para predecir energías de formación y proponer estructuras mediante búsquedas compositivas y estructurales. Microsoft Research ha publicado dos proyectos hermanos: MatterGen, un modelo de difusión generativa que propone materiales inorgánicos condicionados a propiedades específicas, y MatterSim, un simulador entrenado que predice energías y respuestas a través de diversos elementos, temperaturas y presiones. Juntos, estos modelos se describen como un par generador/emulador capaz de proponer candidatos y evaluarlos rápidamente in silico.
Cerrando el ciclo: robots y aprendizaje activo
Las predicciones por sí solas no cambian el mundo físico; la síntesis y la caracterización sí lo hacen. Para llegar a inventos utilizables, los laboratorios están vinculando los modelos de IA con la experimentación automatizada y un ciclo de aprendizaje activo. Un modelo propone un candidato, sustitutos de DFT o aprendizaje automático de alto rendimiento estiman la estabilidad y las propiedades, un laboratorio automatizado o humano intenta la síntesis, y el resultado medido se devuelve al modelo como datos etiquetados. DeepMind y otros informan de colaboraciones con instalaciones automatizadas —como las plataformas autónomas del Lawrence Berkeley National Laboratory— que ya han sintetizado un conjunto no trivial de materiales propuestos por modelos, demostrando el beneficio práctico del descubrimiento de ciclo cerrado. Este enfoque de "laboratorio en el ciclo" (lab-in-the-loop) es lo que transforma la predicción en ingeniería productiva.
Esa combinación —modelos generativos, simuladores rápidos de aprendizaje automático y robótica— crea un "volante de inercia" acelerado: mejores predicciones producen síntesis más fáciles y más datos de entrenamiento, lo que a su vez mejora las siguientes predicciones. Las consecuencias son palpables: lo que solía ser un camino de varias décadas desde el concepto hasta el prototipo puede, en casos favorables, reducirse a meses o unos pocos años.
Política, computación y la brecha de la ciencia abierta
Estas capacidades remodelan no solo los cuadernos de laboratorio, sino también la política y la estrategia industrial. El Departamento de Energía de los Estados Unidos lanzó la Misión Génesis a finales de 2025, un esfuerzo nacional para combinar supercomputadoras de laboratorios nacionales, plataformas de IA e instalaciones automatizadas en un único motor de descubrimiento para prioridades de energía, materiales y seguridad nacional. El programa asigna fondos e infraestructura para construir plataformas compartidas y evitar la duplicación del inmenso coste computacional dentro de unos pocos laboratorios privados. Al mismo tiempo, firmas como Google, Meta y Microsoft continúan trazando sus propias hojas de ruta —algunas liberando código y conjuntos de datos, otras manteniendo modelos e infraestructura tras nubes privadas—, creando una tensión entre la ventaja propietaria y la democratización científica.
Intereses industriales y objetivos a corto plazo
¿Por qué importa todo esto fuera de los laboratorios? Los mejores materiales son los insumos clave para varias transiciones industriales: baterías de estado sólido más densas y seguras, absorbedores solares de perovskita o en tándem con mayor eficiencia de conversión, conductores de menor pérdida e incluso nuevos superconductores que transformarían las redes eléctricas y la electrónica. Las empresas tecnológicas y los programas nacionales están orientando explícitamente estos esfuerzos hacia objetivos críticos para el clima: almacenamiento a escala de red, materiales fotovoltaicos eficientes y reducción de la dependencia de minerales estratégicos. La carrera comercial ya es visible: Microsoft promociona MatterGen y MatterSim como herramientas para empresas que trabajan en energía y semiconductores, mientras que DeepMind, Meta y otros enfatizan las publicaciones comunitarias y las asociaciones que canalizarán los descubrimientos hacia la I+D industrial.
No todos los candidatos prometedores llegarán a escala comercial. El principal desafío técnico actual es el "paso del laboratorio a la fábrica": convertir un cristal apto para DFT en un material fabricable a volúmenes industriales, con propiedades reproducibles y costes aceptables. Las condiciones de síntesis, el dopaje, los límites de grano y el envejecimiento ambiental son detalles prácticos que los modelos de IA todavía tienen dificultades para predecir perfectamente. Por ello, la validación experimental y la ingeniería siguen siendo indispensables incluso mientras proliferan las predicciones de los modelos.
Donde entran la transparencia y la reproducibilidad
Existen riesgos científicos reales junto a las ventajas. Los grandes modelos preentrenados pueden parecer autoritarios incluso cuando sus modos de error son sutiles; los conjuntos de datos y los modelos sustitutos pueden contener sesgos o aproximaciones que conduzcan a afirmaciones irreproducibles si los laboratorios no pueden replicar exactamente la ruta de síntesis. La respuesta de la comunidad ha enfatizado los conjuntos de datos abiertos, los puntos de referencia compartidos y los esfuerzos de síntesis independientes, precisamente para evitar una repetición del problema de reproducibilidad que ha afectado a otros campos impulsados por la IA.
Ese esfuerzo está ocurriendo en paralelo al trabajo arquitectónico en redes equivariantes, potenciales interatómicos de aprendizaje automático transferibles y estrategias de aprendizaje activo que cuantifican la incertidumbre; pasos técnicos diseñados para hacer que las predicciones no solo sean más rápidas, sino también más interpretables y fiables. El resultado es una mezcla de ciencias de la computación, física de la materia condensada y automatización de laboratorio que se asemeja más a una disciplina de ingeniería que a una colección de trucos ingeniosos.
Independientemente de la etiqueta que se le ponga —alquimia computacional, IA para la ciencia o ingeniería atomística—, la ola que rompió en los últimos dos años trata sobre escalar el proceso de descubrimiento. Los ganadores serán las organizaciones que combinen modelos excelentes, conjuntos de datos accesibles, procesos experimentales reproducibles y un acceso justo a la computación. El próximo gran titular podría ser una batería de estado sólido comercialmente viable o un superconductor a temperatura ambiente propuesto por un modelo y realizado en una fábrica; hasta entonces, el trabajo seguirá siendo un maratón interdisciplinario corrido a velocidad de GPU.
Fuentes
- Nature (artículo de investigación de GNoME sobre el descubrimiento por IA de millones de estructuras cristalinas)
- arXiv / OMol25 (conjunto de datos Open Molecules 2025 y modelo UMA)
- Materiales de prensa del Lawrence Berkeley National Laboratory (centro de noticias del Berkeley Lab)
- Publicaciones y entradas de blog de Microsoft Research (MatterGen y MatterSim)
- Comunicados de prensa del Departamento de Energía de EE. UU. y documentación de la Misión Génesis
Comments
No comments yet. Be the first!