Эксперты сообщают, что 2025 год становится все более богатым на изощренные схемы для хищения персональных данных и средств. Теперь мошенники используют нейросети, чтобы создать гиперреалистичные телефонные разговоры.
К примеру, будущей жертве может позвонить фейковый родственник и сообщить, что он нуждается в деньгах, так как попал в беду. При этом отличить голос фиктивного от реального близкого человека практически невозможно. Специалисты сообщают, что в некоторых случаях аферисты также могут требовать специализированные коды, через которые можно получить доступ к персональной информации жертвы. Здесь сообщали, в какую сумму мировой экономике уже обходится мошенничество с применением ИИ-технологий.
Аналитики акцентируют внимание жителей на том, что для клонирования голоса не нужно много времени или навороченных технологий — достаточно нескольких минут, изъятого аудио с голосом реального человека и ПК.
Схема может варьироваться от случая к случаю и не обязательно использует систему с близкими или родственниками. Иногда потерпевшему может звонить сотрудник правоохранительных органов или банков, однако цель остается прежней — выманить прямой денежный перевод или специализированный код, который открывает доступ к персональной информации и банкингу. Также злоумышленники могут использовать и другие дипфейки.





