OpenAI en Ginkgo toonden aan dat GPT-5 duizenden labexperimenten kan ontwerpen en uitvoeren — wie controleert de robots?

AI
OpenAI and Ginkgo showed GPT‑5 can design run thousands of lab experiments — who will police the robots?
De GPT-5 van OpenAI en Ginkgo sloot de cirkel met een robotisch cloudlab om 36.000 experimenten uit te voeren. De capaciteit is een feit — beleid, DNA-screening en industriële regels blijven achter.

Robots, cloudlabs en een zeer bezige GPT‑5

In februari 2026 kondigden OpenAI en Ginkgo Bioworks aan dat GPT‑5 autonoom 36.000 biologische experimenten heeft ontworpen en uitgevoerd via een robotisch cloudlaboratorium — een demonstratie dat AI duizenden labexperimenten kan ontwerpen en uitvoeren zonder menselijke tussenkomst. Het headline-getal verbergt een eenvoudig technisch verhaal: een groot taalmodel stelt ontwerpen en protocollen voor; een cloudlab zet die ontwerpen om in fysieke reagentia en voert geautomatiseerde assays uit; de meetresultaten vloeien terug en het model stelt de volgende batch voor. Mensen bepalen de onderzoeksdoelstelling en de veiligheidsgrenzen, maar de iteratieve design–build–test-cyclus kan nu op een industrieel tempo opereren, waarbij duizenden varianten in dagen in plaats van maanden worden getest.

Het resultaat is programmeerbare biologie: berekeningen smeden eiwit-taalmodellen, lab-control-API's en DNA-synthese (of celvrije productie) aaneen om de cyclus tussen een ontwerp op een scherm en de uitlezing van een plaatlezer te versnellen. Het werk van Ginkgo–OpenAI rapporteerde een kostenbesparing van ongeveer 40% bij de productie van een doeleiwit — een commerciële overwinning die ook illustreert hoe snel capaciteiten schalen zodra automatisering en software worden gecombineerd.

Hoe de cyclus daadwerkelijk werkt: modellen, robots en cloud-API's

In de kern is de gesloten cyclus rechttoe rechtaan engineering. Een generatief model stelt sequentievarianten of experimentele omstandigheden voor; dat voorstel wordt omgezet in een protocol dat een cloudlab-scheduler begrijpt; robots pipetteren en incuberen monsters; geautomatiseerde instrumenten leggen gegevens vast die via een API naar het model worden teruggestuurd; het model traint zichzelf opnieuw of herbereken de scores en stelt de volgende set voor. Die keten — model → protocol → robotische uitvoering → gemeten feedback — is wat men bedoelt als men zegt dat AI op schaal duizenden experimenten kan ontwerpen en uitvoeren. Twee technische vorderingen maakten dit praktisch: eiwit-taalmodellen die generaliseren vanuit miljoenen natuurlijke sequenties, en de commoditisering van labautomatisering via cloudlabs die gestandaardiseerde machine-interfaces ontsluiten.

Belangrijke details doen ertoe. Een model manipuleert niet fysiek de buisjes; het produceert een plan. Het cloudlab vertaalt dat plan naar machine-instructies op laag niveau en voert het uit. Die laboratoria verschillen: sommige zijn gesloten commerciële diensten met expliciete gebruikersauthenticatie, monstertracering en fysieke inperking; andere zijn op maat gemaakte academische installaties. Hoe sneller en goedkoper de basisfuncties van cloudlabs worden, hoe lager de drempel voor een AI-cyclus om van hypothese naar een hands-off experiment te gaan.

De kloof in toezicht: waarom deze verandering belangrijk is voor de bioveiligheid

Technische vernieuwing is slechts de helft van het verhaal. De andere helft is dual-use: dezelfde zoek-en-optimalisatielogica die een beter antilichaam of goedkoper enzym vindt, kan in theorie virale eigenschappen of protocolstappen optimaliseren die de schadelijkheid vergroten. Onderzoekers hebben aangetoond dat modellen die zijn geïntegreerd met labautomatisering virale groeiparameters kunnen optimaliseren en dat grote taalmodellen gebruikers door complexe virologische workflows kunnen leiden. Twee recente, contrasterende studies luidden de noodklok: een experiment van SecureBio/Scale AI wees uit dat beginners die grote taalmodellen gebruiken hun nauwkeurigheid bij virologische taken konden verbeteren, terwijl het werk van Active Site meer gemengde effecten zag, maar nog steeds snellere voortgang bij sommige wet-lab-stappen wanneer AI-ondersteuning beschikbaar was. Beiden wijzen op een gemeenschappelijke conclusie: automatisering plus toegankelijke modellen verlagen de menselijke vaardigheidsdrempel die voorheen de sterkste flessenhals was bij het vertalen van een schadelijk ontwerp naar een echt biologisch agens.

De regelgeving houdt geen gelijke tred. Het screenen van synthetisch DNA bij synthesebedrijven is in veel rechtsgebieden nog steeds grotendeels vrijwillig; het Biologischewapenverdrag uit 1975 bevat geen expliciete AI-bepalingen; bedrijfskaders voor het vrijgeven van modellen zijn ondoorzichtig en inconsistent. Analisten van RAND en het Nuclear Threat Initiative hebben gepleit voor benaderingen met gecontroleerde toegang die beperken wie welk model kan gebruiken en hoe het kan interageren met de echte biologie, terwijl andere groepen aandringen op betere screening van DNA-synthese en biorisico-evaluaties van modellen vóór publicatie. Het kernprobleem voor beleid is het vertalen van een capaciteitsbeoordeling (dit model kan protocolstappen suggereren) naar een schatting van het operationele risico (dit model plus toegankelijke cloudlabs verhoogt de aannemelijke mate van misbruik). Die vertaalslagen blijven omstreden en onzeker.

Praktische waarborgen die risico's kunnen beperken

Er zijn technische en beleidsmatige maatregelen die relatief weinig nadelen hebben. Aan de technische kant: het testen van modellen specifiek tegen biologische dual-use scenario's, grondige red-teaming en integrale telemetrie van modelgedrag bij opdrachten over labstappen. Aan de labkant: verplichte gecontroleerde toegang voor instrumenten die extern ingediende protocollen uitvoeren, cryptografische ondertekening en attestatie van wie werk indient, en robuuste identiteitscontroles gekoppeld aan institutionele toetsing. Op het niveau van de toeleveringsketen zou wijdverbreide verplichte screening van DNA-bestellingen tegen gecureerde gevaarlijke sequenties een heel aanvalsoppervlak verkleinen. Het 'managed-access'-concept van het Nuclear Threat Initiative — het afstemmen van het risico van een tool op de gebruiker en de gebruiksomgeving — is een poging om deze puzzelstukken te combineren.

Deze voorstellen zijn geen wondermiddelen. Evaluaties van modellen zijn niet hetzelfde als praktijktesten met misbruik; DNA-screening is onvolmaakt (modellen kunnen sequenties genereren die naïeve patroonherkenning omzeilen); en een regime van gecontroleerde toegang vereist internationale coördinatie om weglek naar andere rechtsgebieden te voorkomen. Toch zou een gelaagde aanpak — modeltoegang, labtoegangscontroles, sterker toezicht op DNA-synthese en een betere herkomstbepaling van experimentele plannen — de snelheid waarmee een nieuwsgierige maar kwaadwillende actor van idee naar uitvoering kan gaan, aanzienlijk verminderen.

Het Europese en Duitse perspectief: capaciteit, commercie en regels

Europa bevindt zich in een vertrouwde positie: sterk industrieel talent en biotech-labs van wereldklasse, maar gefragmenteerde regelgeving en een tragere harmonisatie. De AI-verordening van de EU creëert een gereedschapskist voor het classificeren van risicovolle AI-systemen, maar deze is niet geschreven met labautomatisering in gedachten en zal moeten worden geïnterpreteerd of uitgebreid. Duitsland heeft sterke punten in hardware en automatisering die het een aantrekkelijke plek zouden maken voor cloudlabs — de machines staan hier — maar inkoop, exportcontroles en de lappendeken van EU-regels zouden consistente waarborgen kunnen frustreren. Kortom, Europa kan de capaciteit opbouwen, maar heeft gecoördineerd beleid en denken over exportcontrole nodig om te voorkomen dat het ook de makkelijkste plek voor misbruik wordt.

Ook industrieel-strategische keuzes doen ertoe. Als overheden infrastructuur voor programmeerbare biologie subsidiëren zonder bindende veiligheidsvoorwaarden, versnellen ze zowel gunstig onderzoek als de bijbehorende risico's. De EU en de lidstaten zouden moeten overwegen om financiering voor automatisering en subsidies op chip-niveau te koppelen aan strikte toegangscontroles en internationale biorisico-normen; anders beschikt de regio wel over de machines, maar niet over het bijbehorende toezicht.

Hoe dicht zijn we bij "volledig autonome ontdekking"?

We zijn dichterbij dan velen verwachtten, maar de droom van een lab zonder menselijk toezicht is nog steeds onder voorbehoud. Gesloten-cyclussystemen ontdekken nu al eiwitvarianten, optimaliseren expressie en versnellen de screening van vaccins. Autonomie blinkt uit in repetitieve optimalisatieproblemen: creëer veel varianten, extraheer een meetwaarde, train een model, herhaal. Waar de autonomie tekortschiet, is in oordeelsvorming en waarden: het kiezen van zinvolle doelen, het interpreteren van subtiele bioveiligheidssignalen en het maken van ethische afwegingen. Dat zijn niet alleen technische problemen; het zijn vraagstukken van toezicht en waarden.

In de praktijk kunnen de laboratoria van 2026 duizenden experimenten uitvoeren met minimale handmatige betrokkenheid. De knelpunten verschuiven van handmatig pipetteren naar de kosten van DNA-synthese, de planning van instrumenten en toezicht. Naarmate DNA-synthese goedkoper wordt en de toegang tot cloudlabs breder, worden volledig autonome cycli toegankelijker. Dat betekent niet dat er een onmiddellijke catastrofe dreigt, maar het verkort wel de tijdlijnen voor zowel innovatie als misbruik. Beleidsmakers en financiers zouden demonstraties op deze schaal — zoals de campagne van 36.000 experimenten van GPT‑5 — moeten beschouwen als een wake-upcall, niet als marketingmijlpalen.

Wat toezichthouders, bedrijven en laboratoria nu kunnen doen

Drie pragmatische stappen zijn belangrijker dan grootse verklaringen. Ten eerste: vereis DNA-screening op het punt van synthese met een standaard, controleerbare set regels en verplichte rapportage. Ten tweede: vereis geautoriseerde, gecontroleerde toegang tot cloudlabs voor alle extern ingediende protocollen — een operationeel regime van gecontroleerde toegang. Ten derde: dring erop aan dat AI-ontwikkelaars rigoureuze, reproduceerbare capaciteitsevaluaties voor bio-relevante taken publiceren voordat ze modellen vrijgeven, en vereis audits door derden voor hoogrisicocapaciteiten. Bedrijven zijn begonnen met zelfregulering — Anthropic verhoogde zijn interne veiligheidsniveau, OpenAI actualiseerde zijn preparedness-framework — maar vrijwillige maatregelen alleen zullen niet genoeg zijn wanneer de technologie breed beschikbaar is.

Ethiek, ongelijkheid en de nieuwe kloof in toegang

Bronnen

  • OpenAI & Ginkgo Bioworks (OpenAI/Ginkgo studie die autonome experimenten demonstreert, DOI en technisch rapport)
  • SecureBio / Scale AI (studie over beginners die LLM's gebruiken voor virologische taken, preprint)
  • Active Site (onderzoek naar AI-ondersteunde workflows in de synthetische biologie, preprint)
  • RAND Center on AI, Security and Technology (rapporten over bioveiligheid en AI)
  • Nuclear Threat Initiative (framework voor gecontroleerde toegang voor biologische AI-tools)
  • U.S. National Security Commission on Emerging Biotechnology (beleidsrapporten)
  • Biologischewapenverdrag (internationaal verdrag en documenten van het VN-Bureau voor Ontwapeningszaken)
Mattias Risberg

Mattias Risberg

Cologne-based science & technology reporter tracking semiconductors, space policy and data-driven investigations.

University of Cologne (Universität zu Köln) • Cologne, Germany

Readers

Readers Questions Answered

Q Hoe kan AI duizenden labexperimenten ontwerpen en uitvoeren zonder menselijke handen?
A
Q Wat zijn de risico's van autonome AI-laboratoria die experimenten uitvoeren zonder menselijke controle?
A
Q Welke waarborgen en regelgeving zijn nodig voor door AI uitgevoerde experimenten in onderzoekslaboratoria?
A
Q Hoe dichtbij zijn we bij volledig autonome laboratoria die wetenschappelijke ontdekkingen doen?
A
Q Wat zijn de ethische implicaties van AI die experimenten ontwerpt en ontdekkingen doet zonder menselijke input?
A

Have a question about this article?

Questions are reviewed before publishing. We'll answer the best ones!

Comments

No comments yet. Be the first!