У вирусологов в лаборатории появился новый коллега, и он не человек. Недавнее исследование, результаты которого были предоставлены эксклюзивно журналу TIME, показало, что модели искусственного интеллекта, такие как GPT и Claude, теперь превосходят докторов наук-вирусологов при решении сложных задач в лабораторных условиях. Это эпохальный поворотный момент: в то время как эксперты-вирусологи достигли среднего балла 22,1% в заявленных областях знаний, il Модель OpenAI o3 достигнута точность 43,8%. «Это меня немного нервирует», — признается он. Сет Доноу, исследователь из SecureBio и соавтор исследования, «потому что впервые в истории практически любой человек имеет доступ к беспристрастному эксперту по вирусологии ИИ, который может провести его через сложные лабораторные процессы по созданию биологического оружия». Вполне обоснованное беспокойство, поднимающее тревожные вопросы: Готовы ли мы к миру, в котором создание смертельных вирусов доступно любому человеку, имеющему подключение к Интернету?
Технологический дамоклов меч
Исследование было проведено учеными из Центр безопасности ИИ, то MIT Media Lab, Бразильского университета УФАБК и некоммерческая организация SecureBio. Результаты впечатляют и в то же время вызывают беспокойство: В дополнение к O3 от OpenAI с точностью 43,8%, есть еще Gemini 2.5 Pro от Google достиг впечатляющих 37,6%, явно превосходя экспертов-людей.

Это не теоретические или легко «гуглимые» вопросы. Тесты были специально разработаны для оценки способности решать сложные практические задачи. «Вопросы выглядят так: «Я вырастил этот конкретный вирус в этом типе клеток, в этих конкретных условиях, в течение такого-то времени. У меня есть такой-то объем информации о том, что пошло не так. Можете ли вы сказать мне, в чем наиболее вероятная проблема?» — объясняет он. Доноу.
Скорость, с которой эти модели совершенствуются, также вызывает тревогу. Например, сонет Клода 3.5 Антропика, Точность увеличилась с 26,9% до 33,6% между моделями июня 2024 г. и октября 2024 г.. И предварительная версия OpenAI GPT 4.5. превзошел GPT-4o почти на 10 процентных пунктов.
ИИ превзошел вирусологов: светлая сторона медали
Несмотря на риски, позитивные последствия этого открытия огромны. Искусственный интеллект может помочь экспертам-вирусологам в их важнейшей работе по борьбе с вирусами за счет ускорения разработки лекарств и вакцин, улучшения дизайна клинических испытаний и совершенствования методов выявления заболеваний.
Том Инглесби, Директор Центр Здоровья Джона Хопкинса, подчеркивает еще одно потенциальное преимущество: «Эти модели могли бы помочь ученым в разных частях мира, которые пока не обладают такими знаниями и возможностями, выполнять ценную повседневную работу по изучению заболеваний, которые встречаются в их странах».
Например, одна группа исследователей обнаружила, что ИИ помог им лучше понять вирусы геморрагической лихорадки в странах Африки к югу от Сахары.

Темная сторона знания
Вирусология и биомедицина уже давно находятся в авангарде мотивации лидеров в области ИИ к созданию все более мощных моделей. Проблема в том, что эти же инструменты могут быть использованы злоумышленниками для создания вирусов и биологического оружия без какой-либо типичной подготовки, необходимой для входа в лаборатории четвертого уровня биологической безопасности (BSL-4), в которых работают с самыми опасными и экзотическими инфекционными агентами.
«В истории было немало случаев, когда кто-то пытался создать биологическое оружие, и одной из главных причин, по которой эти попытки не увенчались успехом, было отсутствие доступа к необходимому уровню знаний», — объясняет он. Доноу. «Вот почему нам нужно быть осторожными в отношении того, как распределяются эти возможности».
Несколько месяцев назад авторы исследования представили свои выводы в ведущие лаборатории искусственного интеллекта. В ответ, хАИ опубликовала структуру управления рисками, взяв на себя обязательство внедрить вирусологические меры безопасности для будущих версий своей модели Grok. Также OpenAI заявила, что «реализовала новые общесистемные меры по снижению биологических рисков» для своих новых моделей, выпущенных на прошлой неделе. Антропный включили результаты оценки эффективности модели в последние системные обзоры, но не предложили конкретных мер по смягчению последствий. Лица, ответственные за Gemini (Google AI) на данный момент отказался комментировать редакционные комментарии Time.
Возможные решения
Дэн Хендрикс, директор Центра безопасности ИИ, призывает компании, занимающиеся ИИ, установить «защитные ограждения» для предотвращения такого рода использования.
«Если компании не внедрят надежные меры защиты в течение шести месяцев, я думаю, что это рискованно», — говорит он.
Хендрикс утверждает, что решение состоит не в том, чтобы остановить эти модели или замедлить их развитие, а в том, чтобы «заключить их в круг», чтобы только доверенные третьи стороны имели доступ к их неотфильтрованным версиям. «Мы должны предоставить возможность задавать вопросы о том, как манипулировать смертельными вирусами, только тем, кто использует его на законных основаниях (например, исследователям на кафедре биологии Массачусетского технологического института)», — говорит он. «Но обычные люди, создавшие аккаунт секунду назад, не должны иметь такой возможности».
Инглсби, со своей стороны, утверждает, что саморегулирования в секторе недостаточно. И призывает законодателей и политических лидеров разработать политический подход к регулированию биорисков ИИ. «Сейчас ситуация такова, что самые добродетельные компании тратят время и деньги на эту работу, что хорошо для всех нас, но другим компаниям не нужно этого делать», — говорит он. «Это не имеет смысла. Нехорошо, если общественность не понимает, что происходит».
«Когда выйдет новая версия LLM», — добавляет он. Английский:«Должно быть требование оценить эту модель и убедиться, что она не приводит к результатам уровня пандемии».
Мы являемся свидетелями зарождения эпохи, в которой демократизация передовых знаний также несет с собой беспрецедентные экзистенциальные риски. Гонка за создание более мощного искусственного интеллекта идет такими темпами, что наши структуры управления и этическое мышление не могут за ней поспеть.
В идеальном мире эти технологии приносили бы только пользу, но история учит нас, что осторожность никогда не помешает.