Специалисты по антифроду в финансовых и прочих организациях всерьез обеспокоены появлением новой техники социальной инженерии — подделкой голоса. Технологии позволяют мошенникам, владея образцом голоса (требуется хотя бы несколько минут речи), синтезировать абсолютно любой текст и использовать его в своих целях. В прошлом году произошел показательный случай, когда директору подразделения крупной энергетической компании позвонил якобы руководитель головного офиса и попросил оплатить счет. Ущерб составил сотни тысяч евро. Эксперты считают, что это только начало: технология становится популярной и доступной и будет новым распространенным способом обмана людей. А это значит, что необходимо развивать методологию обнаружения и предотвращения подобных видов угроз.

Решения для редактирования и изменения голосовых файлов известны достаточно давно. Еще в 2016 году на рынке появились программы, которые могли не только редактировать запись голосового сообщения, но и синтезировать новые слова и фразы на основе нескольких минут речи человека просто путем набора текста. У широко известной компании Adobe, например, есть продукт, который делает голос практически не отличимым от оригинала.

Более молодая технология, которая имеет все шансы также стать новым изощренным способом обмана — создание дипфейк-видео. В эпоху повсеместной удаленной работы и zoom-общения подделка видео из забавы переходит в разряд опасных инструментов манипуляции и обмана.

Дипфейки используют мощные методы машинного обучения и искусственного интеллекта для создания визуального и аудиоконтента. С развитием технологий и мощностей они становятся все менее отличимыми от оригинала, что затрудняет быстрое выявление подделки. Кроме того, в пользу мошенников играют также утечки баз данных, которые позволяют злоумышленникам делать адресные звонки и проще входить в доверие к потенциальным жертвам.

Алгоритм обнаружения подделки сложен и на данный момент требует технических знаний и навыков. В 2019 году появились облачные ресурсы, которые могут «проверить» видео на наличие в файле деформаций, пикселизаций и прочих «примесей» и с какой-то долей вероятности сказать, является ли файл оригиналом или нет. Для этого нужно иметь запись разговора (или видео) и возможность проверить его с помощью специальной программы. Это значит, что в режиме реального времени обычному человеку практически невозможно определить, реальный собеседник на другом конце провода или нет.

Как же защититься? Специалисты по антифроду компании «Информзащита» акценитируют, что основная цель мошенников — это деньги, поэтому любые просьбы, поступившие с незнакомого номера, о переводе денег на неизвестную карту должны быть тщательно проверены, даже если вы слышите голос родного человека. В случае с видео — существуют программы для записи видео встреч и ресурсы по проверке подлинности и чистоты изображения.

Как известно, мошенники используют большие ресурсы и средства для развития технологий, и это всегда дополнительная мотивация для разработчиков не стоять на месте. В смартфонах уже сейчас используется и машинное обучение, и искусственный интеллект, и теоретически можно создать приложение для автоматического выявления дипфейков. Задача это не простая и не быстрая, но производителям компьютерного оборудования стоит думать в этом направлении.