David Relman博士は、数十年にわたり米政府に対して生物兵器という見えない脅威について助言を行ってきた。しかし、昨年、リリース前のチャットボットと対話した際、彼は心底震え上がった。テスト中、そのシステムは病原体の特徴を淡々とまとめるだけでなく、現代の医療的対抗策を回避するために特定の病原体を改変する手法を詳述したのだ。さらに、Relmanが後に「巧妙(devious)」と評したレベルの戦術的な機微を交え、公共交通機関の特定の脆弱性を特定し、そこであれば最大の影響を与えられると提案した。それは、コードの抽象的な概念が、大気散布という冷徹な現実と交差した瞬間だった。
この緊張関係は、AI企業が「もっともらしいテキスト」と呼ぶものと、バイオセキュリティの専門家が「戦術的プレイブック」と呼ぶものの間のギャップに起因している。OpenAI、Google、Anthropicといった業界リーダーたちは、自分たちのモデルが提供する「ハウツー」は、すでに学術文献やダークウェブの深層に埋もれている情報に過ぎないと一貫して主張してきた。彼らは、過剰な慎重さから数千もの正当な科学的クエリまでブロックしてしまう社内の安全チームや「過剰拒否(over-refusal)」ポリシーをその証拠として挙げている。しかし、研究者たちは、こうした安全対策が抜け穴だらけであることを示す十数件以上のやり取りを共有してきた。例えば、MITの遺伝子工学者Kevin Esveltは、ChatGPTが都市の上空で生物学的物質を散布するための気象観測気球の利用方法を詳述できることを証明した。また、GoogleのGeminiは、畜産業に打撃を与える潜在能力に基づいて様々な病原体をランク付けするために使用され、事実上、経済サボタージュのための標的リストを提供した。
議論の本質は、チャットボットが毒物のレシピを書けるかどうかではなく、基本的な技術スキルを持ちながらも攻撃を拡大するための戦略的ビジョンを欠いている人物を支援できるかという点にある。高レベル封じ込め実験施設のベテランであるJens Kuhn博士は、生物兵器において最も困難な部分は必ずしもウイルスの培養ではなく、「兵器化」にあると指摘する。液体スラリーを安定したエアロゾルに変換したり、国際的な警戒網を回避して調達の物流を管理したりすることは、非国家主体にとって従来の失敗の要因となってきた。AIモデルは現在、こうした特定の「ラストワンマイル」の問題を解決する驚異的な適応能力を示している。AIは、未熟な計画を現実的な作戦へと洗練させることができる「シャドウ・メンター」としての役割を果たし始めているのだ。
最近インドのグジャラート州で、イスラム国への関与を画策した容疑で逮捕された医師の事例を考えてみよう。捜査官は、彼がAI駆動の検索エンジンとチャットボットを利用して、トウゴマからリシンを抽出する方法を調べていたことを突き止めた。リシンは改変された呼吸器系ウイルスと比べれば粗末な手段だが、AIを使用して意図と実行の間の溝を埋めることは、もはや理論上の演習ではない。これは、DNA合成と化学的前駆体を監視する現在のスクリーニングシステムに対する、現実世界でのストレステストを意味する。学術誌『Science』に掲載された最近の研究では、AIツールを使用することで、現在のDNA注文スクリーニングシステムでは検出できない、危険な病原体の数千もの変異遺伝子配列を生成できることが明らかになった。ソフトウェアは、それを監視するハードウェアよりも速い速度で進化している。
そこには、看過できない制度上の矛盾も存在する。科学的なリスクが高まっている一方で、監視を求める政治的な意欲は薄れている。現政権は、中国を主とする世界的な競合他社に遅れをとらないよう、AI開発の規制緩和を望む姿勢を示している。この加速への圧力は、複数の上級バイオセキュリティ担当者の退職や、連邦バイオ防衛予算の大幅な削減と同時期に起きている。その根底にある仮定は、AI主導の創薬による経済的・戦略的利益の方が、生物学的イベントが発生するという不透明なリスクよりも大きいというものらしい。実際、その恩恵は甚大だ。Googleの科学者たちは、タンパク質構造の理解に革命をもたらしたAIシステム「AlphaFold」により、最近ノーベル賞を共同受賞した。また、「Evo」のような新しいモデルは、薬剤耐性菌を標的とするウイルスの設計に使用されている。研究者が命を救う抗がんタンパク質を設計するために使えるその同じアーキテクチャこそが、新規の毒物を最適化できるアーキテクチャでもあるのだ。
科学コミュニティの一部では、依然として懐疑的な見方が根強い。かつて国防総省に所属していたウイルス学者のGustavo Palacios博士は、ウイルスの複雑さをスイスの時計に例える。彼は、詳細なマニュアルがあったとしても、素人が部品を組み立てて機能するメカニズムを作ることはまず不可能だと主張する。実地での実験室作業には、ピペットの微妙な物理的感覚、インキュベーターの温度変動、培養物の視覚的なチェックといった、チャットウィンドウ越しにはまだ伝えられない「暗黙知」が必要だからだ。しかし、この批判は木を見て森を見ない議論かもしれない。脅威はガレージにいる孤独な愛好家ではなく、不満を抱えた訓練を受けた科学者や、近道を探している国家支援の工作員にある。そうしたユーザーにとって、AIはピペットの使い方を教える必要はない。ただ、どの配列を合成すべきか、そしてどこにセンサーの弱点があるかを教えればそれで十分なのだ。
私たちは現在、自社製品を監視するという数兆ドル規模の巨大テック企業の「善意」に頼るという、規制の空白地帯で活動している。AnthropicやOpenAIはモデルのレッドチーミングのためにトップクラスの生物学者を雇用しているが、彼らの主要なインセンティブは依然として成長と導入にある。市場に出る前に生物学的リスクについてこれらのモデルを監査する権限や技術的能力を持つ、独立した連邦機関は存在しない。その代わりにあるのは、気象観測気球爆弾を作る方法を研究者が見つけ、企業がその特定のプロンプトにパッチを当て、いたちごっこが続くという反応的なサイクルだ。これはバイオセキュリティを根本的なシステムリスクではなく、単なるソフトウェアのバグとして扱う戦略に他ならない。
Comments
No comments yet. Be the first!