Компания OpenAI предупредила, что ее следующее поколение моделей искусственного интеллекта (ИИ) может значительно увеличить риск воспроизводства биологического оружия людьми, даже без большого научного опыта. Об этом сообщает издание Fortune.
Руководство OpenAI ожидает, что предстоящие модели достигнут классификации высокого риска в рамках внутренней системы готовности компании, разработанной для оценки и снижения угроз, исходящих от все более мощных систем ИИ. По оценкам главы отдела систем безопасности OpenAI Йоханнеса Хайдеке, уже преемники их текущей «рассуждающей» модели (o3) достигнут этого уровня.
В своем блоге компания сообщила об усилении тестирования безопасности, чтобы минимизировать риск того, что модели будут способствовать созданию биологического оружия. OpenAI опасается, что без этих мер модели вскоре смогут «повысить уровень знаний новичков», позволяя людям с ограниченными научными знаниями создавать опасное оружие. В OpenAI уточняют, что речь идет не о создании совершенно новых, ранее неизвестных биоугроз, а скорее о возможности воспроизводства уже известных экспертам.
Сложность ограничения ИИ заключается в том, что те же возможности нейросетей, которые могут привести к прорывным открытиям в медицине, также могут быть использованы злоумышленниками в опасных целях. В связи с этим подчеркивается необходимость практически идеальных систем тестирования безопасности.