IB-эксперт Гараев: на сгенерированных ИИ аудиосообщениях бывает полная тишина
Использование искусственного интеллекта уже активно применяется в мошеннических схемах и в будущем станет одним из наиболее предпочтительных инструментов злоумышленников. Об этом «Газете.Ru» рассказал руководитель департамента информационной безопасности Банки.ру Тимур Гараев.
«Уже сегодня нейросети могут быть использованы мошенниками для генерации более убедительных фишинговых электронных писем. Они анализируют данные из соцсетей и иные данные, находящиеся в открытом доступе (включая интересы, контакты и поведение в сети), и используют в своих схемах, адаптируя сообщения под интересы и запросы жертвы», — объяснил он.
По словам Гараева, с помощью нейросетей можно создавать фальшивые веб-сайты, формы для отправки пожертвований в различные фонды, которые могут выглядеть так, будто они принадлежат легитимным организациям. Все это позволяет мошенникам получить доступ к конфиденциальным данным. Поддельные видео и аудиосообщения, созданные с помощью нейросетей, становятся все более распространенным инструментом для обмана граждан. Нейросети также используются для создания видеороликов, где лица людей могут быть заменены на лица ваших близких, знакомых, коллег. Эти видео могут быть использованы с целью получить от вас информацию, перевод денежных средств или в целях шантажа.
«Один из методов обмана по телефону — вишинг (voice phishing). Злоумышленники используют телефонные звонки или аудиосообщения с целью обмана для кражи денежных средств или данных. Это могут быть как фальшивые звонки от финансовых организаций, государственных или технических служб так и аудиосообщения с голосами ваших знакомых или близких людей», — рассказал специалист.
Чтобы не попасться в ловушку мошенников, важно следовать некоторым рекомендациям. Будьте осторожны при работе с контентом из ненадежных источников. Не доверяйте аудио или видеосообщениям, полученным якобы от ваших знакомых, но с неизвестных номеров. Даже если вам пишут со знакомого номера или присылают видео с просьбой перевода денег, не стесняйтесь перезвонить и уточнить детали. Можно спросить информацию, которую знаете только вы и собеседник.
«Проверяйте подлинность полученного контента. Часто на аудиосообщениях, сгенерированных ИИ, можно услышать абсолютную тишину или, наоборот, неестественные звуки. Видео, в свою очередь, имеют характерные артефакты в виде размытых краев лица или неестественной мимики. Повышайте свою осведомленность о методах, к которым прибегают мошенники. Расскажите своим близким, особенно уязвимой аудитории (детям и пожилым родителям). Используйте дополнительные меры безопасности, такие как двухфакторная аутентификация, когда необходимо подтвердить вашу легитимность с другого устройства или ввести код из смс или программы генерации кодов. Не доверяйте неожиданным звонкам и не предоставляйте конфиденциальную информацию по телефону», — резюмировал Гараев.
Ранее мошенники стали в пять раз чаще атаковать российских пользователей Telegram.
Что думаешь? Комментарии