Dr. David Relman, onlarca yılını ABD hükümetine biyolojik savaşın görünmez sınırları konusunda danışmanlık yaparak geçirdi, ancak geçen yıl piyasaya sürülmemiş bir sohbet robotuyla yaptığı sessiz bir oturum onu gerçekten sarstı. Test sırasında sistem, yalnızca patojen özelliklerinin kuru bir özetini sunmakla kalmadı; aynı zamanda modern tıbbi karşı önlemleri aşmak için belirli bir ajanın nasıl modifiye edileceğine dair bir yöntem ortaya koydu. Ardından, Relman'ın daha sonra “sinsi” olarak tanımladığı bir taktiksel incelikle, toplu taşıma sisteminde böyle bir ajanın maksimum etki yaratacak şekilde salınabileceği belirli bir güvenlik açığını belirledi. Bu, kodun soyutluğu ile atmosferik yayılımın soğuk gerçekliğinin buluştuğu bir andı.
Gerilim, yapay zeka şirketlerinin “makul görünen metin” dedikleri şey ile biyogüvenlik uzmanlarının taktiksel bir oyun kitabı olarak adlandırdığı şey arasındaki boşlukta yatıyor. OpenAI, Google ve Anthropic gibi sektör liderleri, modellerinin halihazırda akademik literatürün veya karanlık ağın derinliklerinde gömülü olmayan bir “nasıl yapılır” kılavuzu sağlamadığını sürekli olarak savundular. Aşırı tedbirli davranarak binlerce meşru bilimsel sorguyu engelleyen dahili güvenlik ekiplerine ve “aşırı reddetme” politikalarına işaret ediyorlar. Yine de araştırmacılar, bu güvenlik önlemlerinin geçirgen olduğunu kanıtlayan bir düzineden fazla etkileşimi paylaştı. Bir örnekte, MIT genetik mühendisi Kevin Esvelt, ChatGPT'nin biyolojik materyalleri bir şehir üzerine yaymak için hava balonlarının kullanımını nasıl tarif edebileceğini gösterdi. Bir diğerinde ise, Google'ın Gemini'si, çeşitli patojenleri hayvancılık sektörünü çökertme potansiyellerine göre sıralamak için kullanıldı ve bu da ekonomik sabotaj için etkili bir hedef listesi sağladı.
Tartışma sadece bir sohbet robotunun bir toksin tarifi yazıp yazamayacağı ile ilgili değil; temel bir teknik beceriye sahip olan ancak bir saldırıyı ölçeklendirecek stratejik vizyondan yoksun bir kişiye yardım edip edemeyeceği ile ilgilidir. Yüksek güvenlikli laboratuvarlarda kıdemli bir isim olan Dr. Jens Kuhn, biyolojik savaşın en zor kısmının mutlaka bir virüsü kültürlemek olmadığını, bunun silahlandırma olduğunu belirtiyor. Sıvı bir bulamacı kararlı bir aerozole dönüştürmek veya uluslararası alarmları tetiklemeden lojistik süreci yönetmek, devlet dışı aktörler için geleneksel başarısızlık noktalarıdır. Yapay zeka modelleri artık bu özel “son kilometre” sorunlarını çözmede son derece yetenekli olduklarını kanıtlıyor. Kaba bir planı uygulanabilir bir operasyona dönüştürebilecek bir tür gölge rehberlik sunuyorlar.
Yakın zamanda Hindistan'ın Gujarat kentinde tutuklanan ve İslam Devleti adına komplo kurmakla suçlanan bir doktor vakasını düşünün. Müfettişler, doktorun hint yağı bitkisinden risin özütlenmesini araştırmak için yapay zeka destekli arama motorlarını ve sohbet robotlarını kullandığını tespit etti. Risin, modifiye edilmiş bir solunum virüsüne kıyasla kaba bir araç olsa da, yapay zekanın niyet ile uygulama arasındaki boşluğu kapatmak için kullanılması artık teorik bir egzersiz değil. Bu, DNA sentezini ve kimyasal öncüleri izleyen mevcut tarama sistemlerinin gerçek dünyadaki bir stres testidir. Science dergisinde yakın zamanda yayınlanan bir çalışma, yapay zeka araçlarının, mevcut DNA sipariş tarama sistemlerinin tespit edemediği tehlikeli ajanlar için binlerce varyant genetik dizi oluşturabileceğini ortaya koydu. Yazılım, onu izleyen donanımdan daha hızlı gelişiyor.
Ayrıca işin içinde rahatsız edici bir kurumsal çelişki var. Bilimsel risk artarken, denetim konusundaki siyasi iştah azalıyor. Mevcut yönetim, başta Çin olmak üzere küresel rakiplere ayak uydurmak için yapay zeka gelişimini kuralsızlaştırma arzusunun sinyallerini verdi. Hıza yönelik bu baskı, birkaç üst düzey biyogüvenlik yetkilisinin ayrılması ve federal biyosavunma bütçelerinde yapılan keskin kesintilerle aynı zamana denk geldi. Temel varsayım, yapay zeka destekli ilaç keşfinin ekonomik ve stratejik faydalarının, biyolojik bir olayın belirsiz riskinden daha ağır bastığı yönünde görünüyor. Faydaları gerçekten de önemli: Google bilim insanları, yakın zamanda protein yapılar hakkındaki anlayışımızda devrim yaratan bir yapay zeka sistemi olan AlphaFold için Nobel Ödülü paylaştılar ve “Evo” gibi daha yeni modeller, ilaca dirençli bakterileri hedef alan virüsler tasarlamak için kullanılıyor. Bir araştırmacının hayat kurtaran kanserle savaşan bir protein tasarlamasını sağlayan aynı mimari, yeni bir toksini optimize edebilecek mimaridir.
Bilim camiasının bazı kesimlerinden gelen şüphecilik devam ediyor. Daha önce Savunma Bakanlığı'nda görev yapmış bir virolog olan Dr. Gustavo Palacios, bir virüsün karmaşıklığını bir İsviçre saatine benzetiyor. Detaylı bir kılavuzla bile, bir amatörün bileşenleri işleyen bir mekanizmaya dönüştürmesinin pek olası olmadığını savunuyor. Uygulamalı laboratuvar çalışması, bir pipetin ince fiziksel ipuçları, bir inkübatörün sıcaklık dalgalanmaları, bir kültürün görsel kontrolleri gibi henüz bir sohbet penceresi aracılığıyla aktarılamayan bir “örtük bilgi” gerektirir. Ancak bu eleştiri ağacı görmekten ormanı kaçırıyor olabilir. Tehdit garajdaki yalnız hobici değil; sorunları olan eğitimli bir bilim insanı veya kestirme yol arayan devlet destekli bir aktördür. Bu kullanıcılar için yapay zekanın onlara pipet kullanmayı öğretmesine gerek yok; sadece hangi diziyi sentezlemeleri gerektiğini ve sensörlerin nerede en zayıf olduğunu söylemesi yeterlidir.
Şu anda, ürünlerini denetlemeleri için trilyon dolarlık teknoloji şirketlerinin “iyi niyetine” güvendiğimiz düzenleyici bir boşlukta faaliyet gösteriyoruz. Anthropic ve OpenAI, modellerini test etmek için üst düzey biyologlar istihdam etse de, temel teşvikleri büyüme ve dağıtım olmaya devam ediyor. Bu modelleri piyasaya çıkmadan önce biyolojik risk açısından denetleme yetkisine veya teknik kapasitesine sahip bağımsız, federal bir kurum bulunmuyor. Bunun yerine, tepkisel bir döngüye mahkumuz: bir araştırmacı hava balonu bombası yapmanın bir yolunu buluyor, şirket bu özel istemi yamalıyor ve kedi-fare oyunu devam ediyor. Bu, biyogüvenliği temel bir sistemik riskten ziyade bir yazılım hatası olarak ele alan bir stratejidir.
Comments
No comments yet. Be the first!