Каждый второй россиянин к концу текущего года может столкнуться с дипфейк-атакой. Об этом пишут "Известия" со ссылкой на специалистов по искусственному интеллекту. Дипфейками называют фотографии или видеозаписи, на которых голос или внешность человека "подделаны" с помощью нейросети. По информации экспертов, аферисты смогут в режиме реального времени имитировать разговор с "другом, просящим деньги" или же "коллегой, срочно требующим перевести средства". Специалисты обратили внимание на то, что в 2025 году технологии создания и модификации видео, а также клонирования голосов значительно усовершенствовались. В связи с этим современные дипфейки становятся все сложнее распознать. В конце апреля МВД России сообщило, что признаками дипфейка являются неестественная интонация речи, редкое моргание и несоответствие движений губ речи. Если заметен "роботизированный" тон речи, рекомендуется проверить собеседника другим способом, чтобы убедиться в его подлинности. До этого исполнительный директор MTS AI Дмитрий Марков заявил, что количество кибератак с использованием дипфейков может вырасти до десятков миллионов в течение ближайших трех лет из-за доступности технологии. По его словам, за это время любой сможет клонировать голос или накладывать чужое лицо на фото и видео.
"Известия": каждый второй россиянин столкнется с дипфейк-атакой к концу года

Связанные
Раскрыто будущее «папамобиля» понтифика Франциска
21 минуты назад
2
Раскрыты особенности самого тонкого iPhone
3 часа назад
4
Google откроет детям до 13 лет доступ к своему ИИ
6 часа назад
12
В тренде
Популярные
ВТБ - кредит наличными - кредит от 30 000 до 7 000 000 руб
1 месяц назад
3279
Деньги на дом - кредит от 10 000 до 100 000 руб
1 месяц назад
1863
МТС банк - Дебетовая карта Weekend 5% кешбэк
1 месяц назад
1685
Квалифицированная адвокатская помощь Санкт-Петербург
1 месяц назад
1474
уголки москитных сеток ростов на дону
1 месяц назад
1438