OpenAI e Ginkgo hanno dimostrato che GPT-5 può progettare ed eseguire migliaia di esperimenti di laboratorio: chi controllerà i robot?

I.A.
OpenAI and Ginkgo showed GPT‑5 can design run thousands of lab experiments — who will police the robots?
GPT-5 di OpenAI e Ginkgo ha completato il ciclo con un laboratorio robotico in cloud per eseguire 36.000 esperimenti. Se la tecnologia è ormai realtà, la governance, lo screening del DNA e le normative di settore non lo sono ancora.

Robot, laboratori cloud e un GPT‑5 instancabile

Nel febbraio 2026 OpenAI e Ginkgo Bioworks hanno annunciato che GPT‑5 ha progettato ed eseguito autonomamente 36.000 esperimenti biologici attraverso un laboratorio cloud robotizzato: una dimostrazione del fatto che l'IA può progettare ed eseguire migliaia di esperimenti di laboratorio senza l'intervento umano. Il dato principale nasconde una semplice storia di ingegneria: un modello linguistico di grandi dimensioni propone progetti e protocolli; un laboratorio cloud trasforma quei progetti in reagenti fisici ed esegue test automatizzati; i risultati misurati tornano al modello, che propone il lotto successivo. Gli esseri umani stabiliscono l'obiettivo della ricerca e i confini di sicurezza, ma il ciclo iterativo "design–build–test" può ora operare a ritmi ingegneristici, testando migliaia di varianti in pochi giorni anziché in mesi.

Il risultato è la biologia programmabile: il calcolo computazionale mette insieme modelli linguistici proteici, API di controllo di laboratorio e sintesi del DNA (o produzione cell-free) per restringere il ciclo tra un progetto su uno schermo e la lettura di un lettore di piastre. Il lavoro di Ginkgo–OpenAI ha riportato una riduzione di circa il 40% dei costi per produrre una proteina bersaglio: un successo commerciale che illustra anche la rapidità con cui le capacità aumentano una volta che l'automazione e il software vengono uniti.

Come funziona effettivamente il ciclo: modelli, robot e API cloud

Fondamentalmente, il circuito chiuso è pura ingegneria. Un modello generativo propone varianti di sequenze o condizioni sperimentali; tale proposta viene convertita in un protocollo comprensibile a uno scheduler di un laboratorio cloud; i robot pipettano e incubano i campioni; strumenti automatizzati acquisiscono i dati che vengono restituiti via API al modello; il modello si riaddestra o ricalcola i punteggi e propone il set successivo. Quella catena — modello → protocollo → esecuzione robotica → feedback misurato — è ciò che si intende quando si dice che l'IA può progettare ed eseguire migliaia di esperimenti su scala. Due progressi tecnici hanno reso tutto ciò pratico: i modelli linguistici proteici che generalizzano a partire da milioni di sequenze naturali e la commoditizzazione dell'automazione di laboratorio attraverso laboratori cloud che espongono interfacce macchina standardizzate.

I dettagli contano. Un modello non manipola fisicamente le provette; produce un piano. Il laboratorio cloud traduce quel piano in istruzioni macchina di basso livello e lo esegue. Questi laboratori differiscono tra loro: alcuni sono servizi commerciali chiusi con autenticazione esplicita dell'utente, tracciamento dei campioni e contenimento fisico; altri sono piattaforme accademiche su misura. Più le primitive del laboratorio cloud diventano veloci ed economiche, più si abbassa la barriera affinché un ciclo di IA passi dall'ipotesi all'esperimento automatizzato.

Il divario nella governance: perché questo cambiamento è cruciale per la biosicurezza

La novità tecnica è solo metà della storia. L'altra metà riguarda il duplice uso (dual use): la stessa logica di ricerca e ottimizzazione che trova un anticorpo migliore o un enzima più economico può, in teoria, ottimizzare tratti virali o fasi di protocollo che aumentano la pericolosità. I ricercatori hanno dimostrato che i modelli integrati con l'automazione di laboratorio possono ottimizzare i parametri di crescita virale e che i modelli linguistici di grandi dimensioni possono guidare gli utenti attraverso complessi flussi di lavoro di virologia. Due studi recenti e contrastanti hanno lanciato l'allarme: un esperimento di SecureBio/Scale AI ha rilevato che i novizi che utilizzano modelli linguistici di grandi dimensioni potrebbero migliorare la loro precisione nei compiti di virologia, mentre il lavoro di Active Site ha riscontrato effetti più contrastanti, ma comunque progressi più rapidi in alcune fasi di laboratorio "wet" quando era disponibile l'assistenza dell'IA. Entrambi portano a una conclusione comune: l'automazione unita a modelli accessibili abbassa la barriera delle competenze umane che in passato rappresentava il principale collo di bottiglia nel tradurre un progetto dannoso in un agente biologico reale.

La regolamentazione non è rimasta al passo. Lo screening del DNA sintetico presso i centri di sintesi è ancora per lo più volontario in molte giurisdizioni; la Convenzione sulle armi biologiche del 1975 non contiene disposizioni esplicite sull'IA; i framework aziendali per il rilascio dei modelli sono opachi e incoerenti. Gli analisti di RAND e della Nuclear Threat Initiative hanno chiesto approcci ad accesso gestito che filtrino chi può usare quale modello e come questo possa interagire con la biologia del mondo reale, mentre altri gruppi sollecitano un migliore screening della sintesi del DNA e valutazioni del biorischio dei modelli prima del rilascio. Il problema politico centrale è tradurre una valutazione delle capacità (questo modello può suggerire fasi di protocollo) in una stima del rischio operativo (questo modello più laboratori cloud accessibili aumenta il tasso di uso improprio plausibile). Queste conversioni rimangono contestate e incerte.

Salvaguardie pratiche che potrebbero ridurre i rischi

Esistono mitigazioni tecniche e politiche che sono misure di tipo "low-regret", ovvero a basso rischio di controindicazioni. Sul piano tecnico: test dei modelli specificamente mirati a scenari biologici a duplice uso, "red-teaming" approfondito e telemetria integrata sui comportamenti dei modelli quando vengono interrogati sulle fasi di laboratorio. Sul piano dei laboratori: accesso gestito obbligatorio per gli strumenti che eseguono protocolli inviati esternamente, firma crittografica e attestazione di chi invia il lavoro, e robusti controlli dell'identità dell'utente legati a revisioni istituzionali. A livello di catena di approvvigionamento, uno screening obbligatorio diffuso degli ordini di DNA rispetto a sequenze pericolose selezionate ridurrebbe l'intera superficie di attacco. Il concetto di accesso gestito della Nuclear Threat Initiative — che adegua il rischio di uno strumento all'utente e all'ambiente di utilizzo — è un tentativo di combinare questi elementi.

Queste proposte non sono panacee. Le valutazioni dei modelli non equivalgono a prove di uso improprio nel mondo reale; lo screening del DNA è imperfetto (i modelli possono produrre sequenze che evitano il pattern matching ingenuo); e un regime di accesso gestito richiede coordinamento internazionale per evitare fughe giurisdizionali. Tuttavia, un approccio stratificato — filtraggio dei modelli, controlli dell'accesso ai laboratori, una governance più forte della sintesi del DNA e una migliore tracciabilità dei piani sperimentali — ridurrebbe concretamente la velocità con cui un attore curioso ma malintenzionato potrebbe passare dall'idea all'esecuzione.

La prospettiva europea e tedesca: capacità, commercio e regole

L'Europa si trova in una posizione familiare: forti talenti industriali e laboratori biotecnologici di livello mondiale, ma una regolamentazione frammentata e un'armonizzazione lenta. L'AI Act dell'UE crea una cassetta degli attrezzi per classificare i sistemi di IA rischiosi, ma non è stato scritto pensando all'automazione di laboratorio e dovrà essere interpretato o esteso. La Germania ha punti di forza nell'hardware e nell'automazione che la renderebbero un luogo attraente per ospitare laboratori cloud — le macchine sono qui — ma gli appalti, i controlli sulle esportazioni e il mosaico di regole dell'UE potrebbero ostacolare l'adozione di salvaguardie coerenti. In breve, l'Europa può costruire la capacità, ma ha bisogno di una politica coordinata e di una riflessione sui controlli alle esportazioni per garantire che non sia anche il luogo più facile in cui abusarne.

Anche le scelte di politica industriale contano. Se i governi sovvenzionano le infrastrutture per la biologia programmabile senza vincolarle a condizioni di sicurezza, accelereranno sia la ricerca benefica sia i rischi connessi. L'UE e gli Stati membri dovrebbero considerare di legare i finanziamenti per l'automazione e i sussidi per i semiconduttori a rigorosi controlli di accesso e a norme internazionali sul biorischio; in caso contrario, la regione disporrà dei macchinari ma non della governance necessaria per gestirli.

Quanto siamo vicini alla "scoperta pienamente autonoma"?

Siamo più vicini di quanto molti si aspettassero, ma il sogno di un laboratorio senza supervisione umana è ancora condizionato. I sistemi a circuito chiuso scoprono già varianti proteiche, ottimizzano l'espressione e accelerano lo screening degli antigeni vaccinali. L'autonomia eccelle nei problemi di ottimizzazione ripetitiva: creare molte varianti, estrarre una metrica, addestrare un modello, ripetere. Dove l'autonomia viene meno è nel giudizio e nei valori: scegliere obiettivi significativi, interpretare sottili segnali di biosicurezza e compiere compromessi etici. Questi non sono solo problemi ingegneristici; sono problemi di governance e di valori.

Praticamente, i laboratori del 2026 possono eseguire migliaia di esperimenti con un coinvolgimento manuale minimo. I colli di bottiglia che si stanno allontanando dal pipettaggio manuale sono il costo della sintesi del DNA, la programmazione degli strumenti e la supervisione. Man mano che la sintesi del DNA diventa più economica e l'accesso ai laboratori cloud si amplia, i cicli interamente autonomi diventano più accessibili. Ciò non significa una catastrofe imminente, ma comprime le tempistiche sia per l'innovazione che per l'uso improprio. I decisori politici e i finanziatori dovrebbero trattare le dimostrazioni di capacità su scala — come la campagna da 36.000 esperimenti di GPT‑5 — come segnali di allarme, non come traguardi di marketing.

Cosa possono fare subito regolatori, aziende e laboratori

Tre passi pragmatici contano più delle grandi dichiarazioni. Primo, richiedere lo screening del DNA al momento della sintesi con un set di regole standard e verificabili e l'obbligo di segnalazione. Secondo, richiedere un accesso accreditato e sottoposto a audit ai laboratori cloud per qualsiasi protocollo inviato esternamente — un regime operativo di accesso gestito. Terzo, insistere affinché gli sviluppatori di IA pubblichino valutazioni delle capacità rigorose e riproducibili per compiti bio-rilevanti prima di rilasciare i modelli, e richiedere audit di terze parti per le capacità ad alto rischio. Le aziende hanno iniziato ad autoregolamentarsi — Anthropic ha innalzato il suo livello di sicurezza interno, OpenAI ha aggiornato il suo "Preparedness Framework" — ma le sole misure volontarie non saranno sufficienti quando la tecnologia sarà ampiamente disponibile.

Etica, disuguaglianza e il nuovo divario di accesso

Fonti

  • OpenAI & Ginkgo Bioworks (Studio OpenAI/Ginkgo che dimostra esperimenti autonomi, DOI e rapporto tecnico)
  • SecureBio / Scale AI (studio sui novizi che utilizzano gli LLM per compiti di virologia, preprint)
  • Active Site (ricerca sui flussi di lavoro assistiti dall'IA nella biologia sintetica, preprint)
  • RAND Center on AI, Security and Technology (rapporti su biosicurezza e IA)
  • Nuclear Threat Initiative (framework di accesso gestito per strumenti di IA biologica)
  • U.S. National Security Commission on Emerging Biotechnology (rapporti politici)
  • Convenzione sulle armi biologiche (trattato internazionale e documenti dell'Ufficio delle Nazioni Unite per gli affari del disarmo)
Mattias Risberg

Mattias Risberg

Cologne-based science & technology reporter tracking semiconductors, space policy and data-driven investigations.

University of Cologne (Universität zu Köln) • Cologne, Germany

Readers

Readers Questions Answered

Q In che modo l'IA può progettare ed eseguire migliaia di esperimenti di laboratorio senza l'intervento umano?
A
Q Quali sono i rischi dei laboratori autonomi basati sull'IA che conducono esperimenti senza il controllo umano?
A
Q Quali misure di salvaguardia e normative sono necessarie per gli esperimenti gestiti dall'IA nei laboratori di ricerca?
A
Q Quanto siamo vicini a laboratori completamente autonomi in grado di compiere scoperte scientifiche?
A
Q Quali sono le implicazioni etiche dell'IA che progetta esperimenti e compie scoperte senza l'apporto umano?
A

Have a question about this article?

Questions are reviewed before publishing. We'll answer the best ones!

Comments

No comments yet. Be the first!