Фраза знакомая миллионам граждан старшего поколения и вызывающая устойчивые ассоциации, может служить примером того как люди воспринимают аудио-информацию «на автомате». В итоге аудиовизуальный канал восприятия информации, как и предполагалось мною несколько лет назад, мошенники продолжают использовать для своих афер. Вы видите звонок в мессенджере или телефоне со знакомого номера и с Вами разговаривает знакомый голос. Дальше идут вариации того, что этот голос от Вас хочет…

В России с начала года наблюдается рост использования аудиодипфейков в мошеннической схеме FakeBoss (ложный начальник) — звонков мошенников с использованием подмены голоса, рассказали “Ъ” в F.A.C.C.T. (ранее Group IB). Злоумышленники создают фейковый аккаунт руководителя, как правило, в Telegram: ФИО и фото — реальные, с официального сайта, из соцсетей или «из огромного количества утечек персональных данных», уточняют в компании. В конце 2023 года специалисты по кибербезопасности уже сообщали о волне фишинговых атак в России на предприятия с рассылкой мошеннических писем якобы от лица руководителей или представителей силовых структур.

«В новой схеме мошенник не пишет сообщения подчиненному, а сразу звонит через мессенджер, используя аудиодипфейк голоса руководителя, смоделированного с помощью искусственного интеллекта»,— говорит ведущий специалист департамента Digital Risk Protection компании F.A.C.C.T. Евгений Егоров. Задача состоит в том, чтобы «войти в доверие и заставить подчиненного, например главного бухгалтера организации, провести платеж на счета преступников».

Как правило, подобные инциденты не разглашаются, поэтому привести точную статистику затруднительно, уточняют в компании. Рост по сравнению с прошлым годом там оценивают в 30%, подчеркивая, что количество подобных атак будет увеличиваться в силу повышения доступности самой по себе технологии дипфейков.

На Западе мошеннические группировки освоили аудиодипфейки еще несколько лет назад: еще в 2019 году в Великобритании злоумышленникам удалось украсть €220 тыс. у энергетической компании, выдав себя за ее гендиректора и убедив в телефонном разговоре сотрудника перевести деньги.

В мошеннической схеме с использованием ИИ для подмены голоса злоумышленникам нужно получить фрагмент речи, который будет использован для обучения нейросети, поясняют в F.A.C.C.T.: киберпреступники могут, например, записать разговор, зная телефонный номер жертвы, или взломать аккаунт в мессенджере и получить доступ к голосовым сообщениям пользователя.