Волна мошенничества с клонированием голоса докатилась и до нашей страны. Роскачество призывает быть бдительными и предупредить близких.
Центр цифровой экспертизы Роскачества неоднократно упоминал в своих статьях, что технологии ИИ сами по себе не являются преступным инструментом, но мошенники вовсю применяют их в своих схемах.
Первые отчеты о применении технологии ИИ в схемах обмана по телефону западные эксперты начали получать с 2022 года. И если летом 2023-го мы рассказывали о мошенничестве с участием ИИ в западных странах, то в начале этого года подобные случаи начали фиксировать и в городах России.
На днях в Подмосковье голосом бабушки мошенники выманили у школьницы 300 тысяч рублей. На телефон ребенка поступил звонок, и «бабушка» сообщила внучке, что попала в ДТП и ей грозит арест.
Благодаря уже имеющимся технологиям хакерам достаточно всего лишь 20-секундного фрагмента с разговором, взятым из социальной сети, для создания клона голоса любого человека. Идентичность поражает настолько, что даже внучка поверила, что ей звонит бабушка.

Сергей Кузьменко
РУКОВОДИТЕЛЬ НАПРАВЛЕНИЯ ИНФОРМАЦИОННОЙ БЕЗОПАСНОСТИ ЦЕНТРА ЦИФРОВОЙ ЭКСПЕРТИЗЫ РОСКАЧЕСТВА
Схемы обмана те же, но инструменты теперь более прогрессивные.
И это не фантастика. Сегодня любой человек, если у него есть смартфон и деньги на счету, — потенциальная жертва аферистов.
В особой зоне риска — пожилые люди и подростки. Проведите беседу с близкими, придумайте кодовое слово, для своих, чтобы точно знать, когда звонят чужие. Важно не вестись на эмоции, а сразу перезвонить своим родным и знакомым, от которых вы якобы получили срочную или тревожную просьбу.