• Николай
  • 1 мин. чтения
  • Статьи

Мошенники вышли на новый уровень: вымогают деньги голосом близких людей

Хакеры получают доступ к аккаунту человека в мессенджере или соцсетях, пишут его знакомым с просьбой перевести деньги, а текст дополняют аудиосообщением с голосом владельца аккаунта, сгенерированным на базе искусственного интеллекта. Сообщения звучат вполне реалистично

Фото: unsplash.com

Обновлено в 15:00

Мошенники начали вымогать деньги с помощью сгенерированных нейросетью голосовых сообщений. Как пишет РБК, когда хакеры получают доступ к аккаунту человека в мессенджере или соцсетях, они начинают писать его знакомым с просьбой перевести деньги. Чтобы подтвердить личность, текст дополняют аудиосообщением с голосом владельца аккаунта.

Для аудио используются нарезки из настоящих голосовых файлов, которые пользователь отправлял ранее, чтобы сохранить манеру общения. Некоторые пострадавшие рассказали, что таким образом в Telegram мошенники просили у них 200 тысяч рублей, а вот VK — всего 3 тысячи.

Насколько реалистичными могут быть эти аудионарезки? Говорит гендиректор «А-Я эксперт» Роман Душкин.

Роман Душкин
гендиректор компании — разработчика искусственного интеллекта «А-Я эксперт»
«Это только-только началось. Даже у меня, в моем ближайшем окружении родственники столкнулись с таким видом мошенничества. Мы столкнулись с тем, что это был голос именно родственника, который неотличим от настоящего, другое дело, что этот родственник сидел прямо рядом с нами. И это спасло ситуацию, то есть всем нам нужно быть начеку. С технической точки зрения злоумышленники будут пробовать разные варианты, и все это будет замешиваться на социальную инженерию. Кому-то зайдет несколько разных сообщений, отдельных коротеньких сообщений, кому-то зайдет длинный монолог. С технической точки зрения здесь не будет склеек, то есть система искусственного интеллекта, которая воспроизводит голос, настолько изощренная сегодня, что никаких склеек там не будет, файлы будут именно в виде голосовых сообщений, сделать это по щелчку пальцев можно, это намного меньшая техническая проблема, чем записать голосом подобного рода сообщение, которое подвигнет жертву на какие-то действия. Обычному человеку я рекомендую задуматься именно о необычности ситуации, в которую он попал, а не смотреть какие-то технические, инженерные моменты, он все равно не сможет в них разобраться, если нет специального образования».

Схему комментирует гендиректор IT-компании ITFB Group Роман Волков:

Роман Волков
гендиректор IT-компании ITFB Group
«Голосовое сообщение — это формат, к которому больше всего доверия, так как жертва мошенничества слышит голос человека, и если в речи нет настораживающих моментов, например, нетипичных слов, обращений, то и повода для недоверия нет. Дополнительным фактором служит то, что голосовое сообщение приходит с аккаунта знакомого человека, человек по умолчанию верит отправителю и не обращает внимание на технические погрешности или необычные фразы в сообщении. Используются разные дополнительные уловки, например, применяются бытовые шумы на заднем фоне, это позволяет мошенникам решить сразу две задачи: скрыть огрехи, которые есть в аудио, и повысить уровень доверия. Серия коротких голосовых сообщений также позволяет скрыть недочеты, но если человек не использует такой способ общения в обычной жизни, то это насторожит жертву. Сгенерировать голос позволяют нейросети, доступные всем желающим в сети интернет за относительно небольшую плату. Системе не нужно много файлов, она может подхватить голос с одной записи длительностью 10-15 секунд».

Представитель VK заверил, что массовых мошеннических действий с такой схемой на их площадке нет. В Telegram ситуацию на момент публикации не прокомментировали.

Межтекстовые Отзывы
Посмотреть все комментарии
guest