С помощью нейросетей мошенники создают реалистичное видеоизображение человека

С помощью нейросетей мошенники создают реалистичное видеоизображение человека. Затем сгенерированный образ рассылают его друзьям или родным через мессенджеры или социальные сети. В коротком фальшивом видеоролике виртуальный клон реального человека рассказывает якобы о своей проблеме (болезнь, ДТП, увольнение) и просит перевести деньги на определенный счет. В некоторых случаях мошенники создают дипфейки работодателей, сотрудников государственных органов или известных личностей из той сферы деятельности, в которой трудится их потенциальная жертва.

Что предпринять, чтобы защитить себя от подобных схем

Если человеку пришло сообщение от знакомого с просьбой о финансовой помощи, не стоит спешить и переводить деньги: аккаунт могли взломать мошенники. Иногда для рассылки таких сообщений злоумышленники создают поддельные страницы с именем и фото человека.

Следует позвонить тому, от чьего лица просят деньги, и перепроверить информацию.

Если возможности позвонить нет, то можно задать в сообщении личный вопрос, ответ на который знает только сам знакомый.

Видеосообщения следует проверять на предмет монотонной речи собеседника, неестественной мимики и дефектов звука - наиболее заметных признаков дипфейка.

Источник: Telegram-канал "Магнитогорское городское Собрание депутатов"

Топ

Лента новостей