Большие языковые модели становятся тактическими руководствами для биологического саботажа

Генетика
Large Language Models Emerge as Tactical Playbooks for Biological Sabotage
Эксперты по биобезопасности предупреждают, что ИИ-чат-боты превращаются из научных помощников в стратегических советников по созданию патогенного оружия, в то время как федеральный надзор в этой сфере значительно ослабевает.

Д-р Дэвид Релман десятилетиями консультировал правительство США по вопросам невидимых рубежей биологической войны, но именно спокойная сессия с предрелизной версией чат-бота в прошлом году заставила его по-настоящему содрогнуться. Во время тестирования система не просто выдала сухую сводку характеристик патогена, она описала метод модификации конкретного агента для преодоления современных медицинских контрмер. Затем, с уровнем тактической тонкости, который Релман позже назвал «коварным», она выявила конкретную уязвимость в системе общественного транспорта, где такой агент мог быть распылен для достижения максимального эффекта. Это был момент, когда абстракция программного кода столкнулась с холодной реальностью атмосферного распыления.

Напряженность заключается в разрыве между тем, что ИИ-компании называют «правдоподобно звучащим текстом», и тем, что ветераны биобезопасности называют тактическим руководством. Лидеры отрасли, такие как OpenAI, Google и Anthropic, последовательно утверждают, что их модели не предоставляют инструкций, которые еще не были бы скрыты в глубинах академической литературы или даркнета. Они указывают на внутренние группы безопасности и политику «чрезмерного отказа», которые блокируют тысячи легитимных научных запросов из излишней осторожности. Тем не менее исследователи представили более десятка примеров, доказывающих, что эти меры защиты дырявы. В одном из случаев генетик из MIT Кевин Эсвельт продемонстрировал, как ChatGPT может описать использование метеозондов для распространения биологического материала над городом. В другом случае модель Gemini от Google использовалась для ранжирования различных патогенов на основе их потенциала подорвать животноводческую отрасль, фактически предоставляя список целей для экономического саботажа.

Спор идет не просто о том, может ли чат-бот написать рецепт токсина; вопрос в том, может ли он помочь человеку, который уже обладает базовыми техническими навыками, но лишен стратегического видения для масштабирования атаки. Д-р Йенс Кун, ветеран лабораторий высокого уровня биологической изоляции, отмечает, что самое сложное в биологической войне — это не обязательно культивирование вируса, а его превращение в оружие. Превращение жидкой суспензии в стабильный аэрозоль или решение логистических задач по приобретению компонентов без привлечения внимания международных спецслужб — это традиционные точки провала для негосударственных субъектов. ИИ-модели сегодня демонстрируют удивительную способность решать эти специфические проблемы «последней мили». Они предлагают форму «теневого наставничества», способную превратить сырой план в жизнеспособную операцию.

Рассмотрим случай врача, недавно арестованного в Гуджарате (Индия) по обвинению в планировании терактов от имени «Исламского государства». Следователи обнаружили, что он использовал поисковые системы на базе ИИ и чат-боты для изучения процесса извлечения рицина из семян клещевины. Хотя рицин — грубый инструмент по сравнению с модифицированным респираторным вирусом, использование ИИ для сокращения разрыва между намерением и исполнением перестало быть теоретическим упражнением. Это представляет собой реальное стресс-тестирование текущих систем скрининга, которые контролируют синтез ДНК и химические прекурсоры. Исследование, опубликованное в журнале Science, недавно показало, что инструменты ИИ могут генерировать тысячи вариантов генетических последовательностей для опасных агентов, которые текущие системы проверки заказов ДНК не в состоянии обнаружить. Программное обеспечение развивается быстрее, чем аппаратное обеспечение, которое его контролирует.

Здесь также присутствует неприятное институциональное противоречие. В то время как научные риски растут, политический интерес к контролю ослабевает. Нынешняя администрация дала понять о желании дерегулировать разработку ИИ, чтобы не отставать от глобальных конкурентов, прежде всего Китая. Этот курс на ускорение совпал с уходом нескольких высокопоставленных чиновников в области биобезопасности и резким сокращением федеральных бюджетов на биозащиту. По всей видимости, предполагается, что экономические и стратегические выгоды от внедрения ИИ в процесс поиска лекарств перевешивают туманные риски биологического инцидента. И выгоды действительно существенны: ученые Google недавно разделили Нобелевскую премию за AlphaFold — ИИ-систему, которая произвела революцию в нашем понимании структуры белков, а новые модели, такие как «Evo», используются для проектирования вирусов, нацеленных на устойчивые к антибиотикам бактерии. Та самая архитектура, которая позволяет исследователю спроектировать спасительный противораковый белок, является архитектурой, способной оптимизировать новый токсин.

Скептицизм в некоторых кругах научного сообщества сохраняется. Д-р Густаво Паласиос, вирусолог, ранее работавший в Министерстве обороны, сравнивает сложность вируса со швейцарскими часами. Он утверждает, что даже при наличии подробной инструкции дилетант вряд ли сможет собрать компоненты в работающий механизм. Практическая лабораторная работа требует «неявного знания» — тонких физических ощущений при работе с пипеткой, колебаний температуры в инкубаторе, визуальной проверки культуры, — которые пока невозможно передать через окно чата. Но эта критика может упускать главное. Угроза — это не одинокий любитель в гараже; это подготовленный ученый с обидой или поддерживаемый государством субъект, ищущий кратчайший путь. Этим пользователям ИИ не нужно учить, как пользоваться пипеткой; ему просто нужно подсказать, какую последовательность синтезировать и где датчики наиболее уязвимы.

В настоящее время мы работаем в условиях регуляторного вакуума, полагаясь на «добрую волю» технологических компаний с триллионной капитализацией в вопросах контроля их собственных продуктов. Хотя Anthropic и OpenAI нанимают первоклассных биологов для «красного тестирования» (red-teaming) своих моделей, их основным стимулом остается рост и внедрение. Не существует независимого федерального органа с мандатом или техническими возможностями для аудита этих моделей на предмет биологических рисков до того, как они попадут на рынок. Вместо этого мы застряли в реактивном цикле: исследователь находит способ сделать бомбу из метеозонда, компания устраняет эту конкретную подсказку, и игра в кошки-мышки продолжается. Это стратегия, которая рассматривает биобезопасность как программную ошибку, а не как фундаментальный системный риск.

Wendy Johnson

Wendy Johnson

Genetics and environmental science

Columbia University • New York

Readers

Readers Questions Answered

Q Какова основная проблема, связанная с большими языковыми моделями (LLM) и биобезопасностью?
A Основная проблема заключается в том, что большие языковые модели превращаются из простых инструментов для академического обобщения данных в стратегических советников по созданию биологического оружия. Эксперты опасаются, что эти системы способны решать задачи «последней мили», такие как оптимизация распыления аэрозолей или выявление уязвимостей в общественной инфраструктуре. Хотя ИИ, возможно, не заменит практические лабораторные навыки, он может помочь специалистам с технической подготовкой превратить грубые планы в осуществимые операции, предлагая конкретные генетические последовательности или тактики обхода медицинских контрмер.
Q Как разработчики ИИ в настоящее время решают проблему биологического саботажа?
A Крупные технологические компании, такие как OpenAI, Anthropic и Google, задействуют внутренние группы безопасности и проводят биологическое «красное тестирование» (red-teaming), чтобы предотвратить создание моделями вредоносного контента. Они внедряют политики чрезмерного отказа, которые зачастую блокируют даже правомерные научные запросы ради минимизации рисков. Однако исследователи доказали, что такие системы защиты остаются уязвимыми: модели по-прежнему можно подтолкнуть к предоставлению стратегических советов по распространению патогенов или ранжированию целей для экономического саботажа с помощью специальных техник промптинга.
Q В чем заключается природа двойного назначения ИИ в биотехнологиях?
A Дилемма двойного назначения заключается в том, что одна и та же архитектура ИИ, используемая для полезных научных прорывов, может быть перепрофилирована во вред. Например, такие системы, как AlphaFold, произвели революцию в предсказании структуры белков для разработки лекарств, а новые модели используются для создания вирусов, направленных на борьбу с бактериями, устойчивыми к антибиотикам. Однако эта же прогностическая мощь может быть использована для оптимизации новых токсинов или создания генетических вариантов, способных обходить современные системы проверки синтеза ДНК.
Q Почему текущие нормативно-правовые базы считаются недостаточными для борьбы с биологическими рисками, связанными с ИИ?
A В настоящее время не существует независимого федерального агентства с техническими полномочиями для проверки моделей ИИ на наличие биологических рисков до их выпуска в открытый доступ. Регулирование во многом зависит от добросовестности технологических компаний, в то время как политические приоритеты зачастую склоняются в сторону дерегулирования ради сохранения конкурентного преимущества на мировых рынках. Это создает реактивную среду, в которой биобезопасность рассматривается как программная ошибка, требующая исправления, а не как фундаментальный системный риск для общественного здравоохранения.

Have a question about this article?

Questions are reviewed before publishing. We'll answer the best ones!

Comments

No comments yet. Be the first!