Глава Роспотребнадзора предупредила о рисках биобезопасности из-за развития ИИ

10 июня. Interfax-Russia.ru - Существующие механизмы сотрудничества между странами и международными организациями и объединениями не обеспечивают необходимый уровень защиты от биологических рисков естественного или искусственного происхождения, угрозу для биобезопасности несет также развитие искусственного интеллекта, заявила глава Роспотребнадзора Анна Попова.

Глава Роспотребнадзора предупредила о рисках биобезопасности из-за развития ИИ. Фото. © РИА Новости. Алексей Майшев
© РИА Новости. Алексей Майшев

"Существующие глобальные механизмы сотрудничества не обеспечивают необходимый уровень защиты от биологических рисков естественного или искусственного происхождения. На мой взгляд, это абсолютно очевидно сегодня. В таких условиях РФ прилагает усилия по выстраиванию диалога между заинтересованными сторонами в интересах общей неделимой биологической безопасности", - сказала Попова в ходе пленарного заседания V международной научно-практической конференции "Глобальные угрозы биологической безопасности. Проблемы и решения".

Она также отметила, что созданная по итогам Девятой обзорной конференции о Конвенции о запрещении разработки, производства и накопления запасов бактериологического (биологического) и токсинного оружия (КТБО) и об их уничтожении рабочая группа по укреплению режима конвенции "не находит консенсуса по механизмам верификации, анализу рисков научно-технического прогресса, осуществлению КБТО на национальном уровне", а работа над поправками в международные медико-санитарные правила и пандемическим соглашениям выявила серьезные противоречия между развивающимися и развитыми странами.

"Угрозу биологической безопасности несет также развитие искусственного интеллекта", - сказала Попова.

Так, по ее словам, американская компания OpenAI в январе прошлого года изменила политику использования чат-бота GPT на основе искусственного интеллекта, сняв запрет на его применение в военных целях. "Позднее это сделали и другие разработчики программ", - добавила Попова.

"В прошлом году группа биохимиков в Соединенных Штатах протестировала возможности чат-бота GPT, и программа предложила исследователям способы использования патогенов в баллистических ракетах, чтобы нанести максимальный ущерб, подсказала, в какую погоду их лучше использовать и для каких целей. В 2023 году в Массачусетском технологическом институте провели эксперимент, чтобы определить, как искусственный интеллект может помочь не специалистам создать биологическое оружие. За час программа предложила четыре патогена, которые вызывают пандемию, и объяснила простыми словами, что их можно создать из синтетической ДНК", - добавила Попова.

Также, по ее словам, риски биологической безопасности связаны с расширением проводимых исследований с особо опасными организмами.

"И свидетельство тому - значительный рост количества создаваемых лабораторий высокого уровня биологической защиты. По состоянию на 2024 год в мире действуют, строятся или планируются к открытию 78 лабораторий четвертого уровня биозащиты в 27 странах. Число таких лабораторий возросло более чем в 1,5 раза по сравнению с допандемийным 2019 годом. Не во всех странах, где создаются такие объекты, существует нормативная методическая база, обеспечивающая требуемый уровень биозащиты и биобезопасности", - добавила глава ведомства.

Еще одним вызовом, по словам Поповой, является "неконтролируемое использование новых технологий в сфере синтетической биологии и искусственного интеллекта".

"За последние 20 лет мы видим повышение доступности и существенное удешевление биотехнологий, которые имеют потенциал двойного назначения. И технические барьеры для проектирования и синтеза опасных бактерий или вирусного генома практически исчезли, а ценовой порог входа в эту отрасль стал очень низким. Проведение таких исследований не регулируется международным правом, и в КБТО отсутствует механизма оценки рисков или контроля научных исследований", - добавила Попова, отметив, что "ответственность за проведение подобных разработок лежит в плоскости этики и моральной ответственности".

По словам главы Роспотребнадзора, "развитие синтетической биологии искусственного интеллекта требует правового регулирования, а также государственного и международного управления развитием этой отрасли". "Поэтому необходимо разрабатывать технологии и инструменты выявления и контроля объектов, созданных с применением синтетической биологии", - добавила Попова.