Dr. David Relman adviseert de Amerikaanse overheid al decennia over de onzichtbare frontlinies van biologische oorlogsvoering, maar het was een rustige sessie met een nog niet uitgebrachte chatbot vorig jaar die hem oprecht deed schudden. Tijdens de test gaf het systeem niet alleen een droge samenvatting van pathogeeneigenschappen; het schetste een methode om een specifiek agens te modificeren om moderne medische tegenmaatregelen te omzeilen. Vervolgens identificeerde het, met een tactische nuance die Relman later als "sluw" omschreef, een specifieke kwetsbaarheid in een openbaar vervoersysteem waar een dergelijk agens voor maximale impact zou kunnen worden verspreid. Het was een moment waarop de abstractie van code de kille realiteit van atmosferische verspreiding ontmoette.
De spanning ligt in de kloof tussen wat AI-bedrijven "aannemelijk klinkende tekst" noemen en wat veteranen in de biosecurity een tactisch draaiboek noemen. Industrieleiders zoals OpenAI, Google en Anthropic hebben consequent betoogd dat hun modellen geen "how-to"-gids bieden die niet al diep in de academische literatuur of het dark web verborgen zit. Ze wijzen naar interne veiligheidsteams en "over-refusal"-beleid dat duizenden legitieme wetenschappelijke zoekopdrachten blokkeert uit een overmaat aan voorzichtigheid. Toch hebben onderzoekers meer dan een dozijn uitwisselingen gedeeld die bewijzen dat deze veiligheidsmaatregelen poreus zijn. In één geval demonstreerde MIT-genetisch ingenieur Kevin Esvelt hoe ChatGPT het gebruik van weerballonnen kon beschrijven om biologisch materiaal over een stad te verspreiden. In een ander geval werd Google’s Gemini gebruikt om verschillende pathogenen te rangschikken op basis van hun potentieel om de veehouderij plat te leggen, wat effectief een doelwittenlijst voor economische sabotage opleverde.
Het debat gaat niet alleen over de vraag of een chatbot een recept voor een gif kan schrijven; het gaat erom of het een persoon kan assisteren die al over een basis van technische vaardigheden beschikt, maar niet over de strategische visie om een aanval op te schalen. Dr. Jens Kuhn, een veteraan van laboratoria met een hoog inperkingsniveau, merkt op dat het moeilijkste deel van biologische oorlogsvoering niet noodzakelijkerwijs het kweken van een virus is—het is de bewapening ervan. Het veranderen van een vloeibare brij in een stabiele aerosol of het navigeren door de logistiek van verwerving zonder internationale alarmbellen te activeren, zijn de traditionele faalpunten voor niet-statelijke actoren. AI-modellen blijken nu opmerkelijk behendig in het oplossen van deze specifieke "last-mile"-problemen. Ze bieden een vorm van schaduw-mentorschap die een ruw plan kan verfijnen tot een levensvatbare operatie.
Denk aan de zaak van een arts die onlangs in Gujarat, India, werd gearresteerd, beschuldigd van het beramen van een complot voor Islamitische Staat. Onderzoekers ontdekten dat hij AI-gestuurde zoekmachines en chatbots had gebruikt om onderzoek te doen naar de extractie van ricine uit wonderbonen. Hoewel ricine een ruw instrument is in vergelijking met een gemodificeerd ademhalingsvirus, is het gebruik van AI om de kloof tussen intentie en uitvoering te overbruggen geen theoretische oefening meer. Het vertegenwoordigt een real-world stresstest van de huidige screeningsystemen die DNA-synthese en chemische precursoren monitoren. Een studie gepubliceerd in Science onthulde onlangs dat AI-tools duizenden genetische variantsequenties voor gevaarlijke agentia konden genereren die de huidige systemen voor DNA-orderscreening niet detecteren. De software evolueert sneller dan de hardware die het controleert.
Er is ook sprake van een ongemakkelijke institutionele tegenstrijdigheid. Terwijl het wetenschappelijke risico toeneemt, neemt de politieke bereidheid tot toezicht af. De huidige regering heeft de wens uitgesproken om de ontwikkeling van AI te dereguleren om gelijke tred te houden met wereldwijde concurrenten, voornamelijk China. Deze drang naar snelheid viel samen met het vertrek van verschillende senior biosecurity-functionarissen en scherpe bezuinigingen op federale defensiebudgetten tegen biologische dreigingen. De onderliggende aanname lijkt te zijn dat de economische en strategische voordelen van AI-gestuurde medicijnontwikkeling opwegen tegen het vage risico van een biologische gebeurtenis. En de voordelen zijn inderdaad aanzienlijk: Google-wetenschappers deelden onlangs een Nobelprijs voor AlphaFold, een AI-systeem dat ons begrip van eiwitstructuren heeft gerevolutioneerd, en nieuwere modellen zoals "Evo" worden gebruikt om virussen te ontwerpen die medicijnresistente bacteriën bestrijden. Dezelfde architectuur die een onderzoeker in staat stelt een levensreddend kankereiwit te ontwerpen, is de architectuur die een nieuw gif kan optimaliseren.
Het scepticisme vanuit sommige hoeken van de wetenschappelijke gemeenschap blijft bestaan. Dr. Gustavo Palacios, een viroloog die voorheen bij het Amerikaanse ministerie van Defensie werkte, vergelijkt de complexiteit van een virus met een Zwitsers horloge. Hij voert aan dat zelfs met een gedetailleerde handleiding een amateur waarschijnlijk niet in staat zal zijn de onderdelen weer in elkaar te zetten tot een functionerend mechanisme. Praktisch laboratoriumwerk vereist "tacit knowledge"—de subtiele fysieke signalen van een pipet, de temperatuurschommelingen van een incubator, de visuele controles van een kweek—die nog niet via een chatvenster kan worden overgebracht. Maar deze kritiek mist wellicht het punt. De dreiging is niet de hobbyist in een garage; het is de getrainde wetenschapper met een grieven, of de door de staat gesteunde actor die op zoek is naar een kortere weg. Voor deze gebruikers hoeft de AI hen niet te leren hoe ze een pipet moeten gebruiken; het hoeft ze alleen maar te vertellen welke sequentie ze moeten synthetiseren en waar de sensoren het zwakst zijn.
We opereren momenteel in een regulerend vacuüm waarin we vertrouwen op de "goede trouw" van techbedrijven met een waarde van biljoenen dollars om hun eigen producten te controleren. Hoewel Anthropic en OpenAI biologen van topniveau in dienst hebben om hun modellen aan een "red-teaming" te onderwerpen, blijft hun primaire stimulans groei en inzet. Er is geen onafhankelijk, federaal orgaan met het mandaat of de technische capaciteit om deze modellen te auditen op biologisch risico voordat ze op de markt komen. In plaats daarvan blijven we achter met een reactieve cyclus: een onderzoeker vindt een manier om een weerballonbom te maken, het bedrijf dicht die specifieke prompt, en het kat-en-muisspel gaat door. Het is een strategie die biosecurity behandelt als een softwarefout in plaats van als een fundamenteel systemisch risico.
Comments
No comments yet. Be the first!