"Известия": каждый второй россиянин столкнется с дипфейк-атакой к концу года

4 часа назад 5

Каждый второй россиянин к концу текущего года может столкнуться с дипфейк-атакой. Об этом пишут "Известия" со ссылкой на специалистов по искусственному интеллекту. Дипфейками называют фотографии или видеозаписи, на которых голос или внешность человека "подделаны" с помощью нейросети. По информации экспертов, аферисты смогут в режиме реального времени имитировать разговор с "другом, просящим деньги" или же "коллегой, срочно требующим перевести средства". Специалисты обратили внимание на то, что в 2025 году технологии создания и модификации видео, а также клонирования голосов значительно усовершенствовались. В связи с этим современные дипфейки становятся все сложнее распознать. В конце апреля МВД России сообщило, что признаками дипфейка являются неестественная интонация речи, редкое моргание и несоответствие движений губ речи. Если заметен "роботизированный" тон речи, рекомендуется проверить собеседника другим способом, чтобы убедиться в его подлинности. До этого исполнительный директор MTS AI Дмитрий Марков заявил, что количество кибератак с использованием дипфейков может вырасти до десятков миллионов в течение ближайших трех лет из-за доступности технологии. По его словам, за это время любой сможет клонировать голос или накладывать чужое лицо на фото и видео.

Rewaco.org - только свежие новости
Будь всегда в тренде! Общественный контент-портал с поисковой системы и агрегатор самых актуальных новостей!
rewaco.org — Главная страница