Новые схемы мошенников — теперь они используют ИИ

vaspvort

Ночной дозор
Команда форума
Модератор
ПРОВЕРЕННЫЙ ПРОДАВЕЦ
Private Club
Старожил
Migalki Club
Меценат💰️
Регистрация
10/4/18
Сообщения
5.059
Репутация
10.008
Реакции
15.255
RUB
1.045
Сделок через гаранта
18
Звонки из банка в прошлом. Мошенники теперь идут на более наглые действия — с помощью искусственного интеллекта. Разберёмся, как они используют нейросети и какие хитрости помогут распознать их уловки.

8fc73091e17b39e5400a55b28db7ae94.png

Шантаж дипфейком​

Дипфейк (он же Deepfake) — это фейковый контент, который люди создают с помощью ИИ. Можно создать его с видео: например, скопировать лицо человека с фотографий в его соцсетях и обучить на них нейросеть. А затем от лица жертвы сгенерировать нецензурные или экстремистские действия. Или сделать фотоконтент неприемлемого характера.

Обычно мошенники угрожают отправить родственникам, друзьям или полицейским эти материалы и взамен просят много денег. Чтобы этого не произошло с вами, предупредите близких о том, что такая технология очень популярна. И если вы окажетесь в чём-то замешаны, они должны связаться с вами и сразу проверить, правда это или нет.

Ещё больше примеров мы приводили про дипфейки.

Уже существуют приложения, в которых пользователь может раздеть на фото кого угодно

Уже существуют приложения, в которых пользователь может раздеть на фото кого угодно

Копирование голоса​

Раньше преступник звонил жертве от лица её родственника и говорил, что тот попал в ДТП. После чего просил срочно перевести деньги — на лечение или чтобы избежать уголовной ответственности. Заподозрить мошенничество было легко из-за другого голоса.

Теперь же злоумышленники могут скопировать голос близкого и позвонить вам от его имени, чтобы вымогать деньги.

Например, есть история, как другу написал его товарищ и попросил в долг большую сумму денег. Как он сказал, зарплату задержали, и ему не хватало на ежемесячный взнос по кредиту за автомобиль.

Друг заподозрил что-то неладное, но мошенник прислал голосовое сообщение, в котором действительно был голос товарища, и сомнений уже не было. Деньги были переведены.

Как уже потом выяснилось, товарищ летел из другого города, пока всё происходило. Но этого времени мошеннику хватило, чтобы развести людей. Придумайте кодовое слово для родственников на случай, если кто-то и им позвонит вашим голосом.

Скрин из диалога друга с его «товарищем»

Скрин из диалога друга с его «товарищем»

Несуществующие товары на маркетплейсах​

С помощью нейросетей люди делают целые фотосессии для своих товаров, а затем оформляют как карточку товара и загружают на маркетплейсы. Многие продавцы так увлеклись, что сгенерировали фотографии несуществующих товаров, их названия и описания.

Иногда в моду входят явно фальшивые товары — семена, из которых якобы вырастет цветок с изображением мордочки кота или цветок, похожий на птицу с ярким окрасом.

8868044936e2c79450ee20a3a341e458.png
Пример фейкового товара на маркетплейсе

Пример фейкового товара на маркетплейсе
Злоумышленники на Amazon частенько проворачивают такую схему. Но, видимо, настолько бестолково, что их выдает фраза в названиях карточки из ChatGPT: «Извините, но я не могу выполнить запрос. Он противоречит политике OpenAI».

Сам Amazon утверждает, что проверяет продавцов и карточки, но гарантии не даёт никто. Продавец может принять у вас заказ, увести в мессенджер, получить деньги и затем со своего аккаунта отменить отправку товара. Так это проворачивают на Wildberries.

Недавно российский маркетплейс заявил, что мошенники всё чаще создают фальшивые страницы, чтобы обмануть покупателей. После получения заказа они просят связаться через мессенджер и присылают ссылку для оплаты на сторонних платформах. После получения денег мошенники бесследно исчезают.

Пример нового вида мошенничества

Пример нового вида мошенничества

Фейковая девушка​

Мошенники могут притворяться парнями или девушками с сайтов знакомств. Этот метод обмана давно всем известен, но сейчас его популярность опять растёт благодаря нейросети LoveGPT.

Мошенник пересылает нейросети сообщения от жертвы, а в ответ получает кокетливые фразы от ИИ. Используя это, он втирается в доверие к человеку и выманивает у него важную информацию или деньги.

Другой вариант — мошенник генерирует фотографию несуществующего человека, знакомится онлайн и назначает свидание. После просит купить билеты в кино, кидает ссылку на фишинговый сайт, а когда жертва переводит средства, исчезает.

Поддельные документы​

Наверное, это самый наглый способ обмана. На сайте OnlyFake можно создавать фотографии документов: паспорта или водительских прав 26 стран мира. Достаточно лишь заполнить шаблон фотографией любого человека и его данными, а затем нейросеть всё обработает сама. Снимки получаются максимально достоверными и позволяют проходить проверки на криптобиржах. А стоит такая услуга $15, около 1300 ₽.

Суть в том, что мошенники могут украсть чужие данные, взять фото из соцсетей для регистрации в онлайн-казино, сервисах для аренды автомобилей, оформления микрозаймов. А вы потом со скрипом будете доказывать свою невиновность.

Пример поддельного документа. Мошенник добавляет личную информацию и фото в шаблон

Пример поддельного документа. Мошенник добавляет личную информацию и фото в шаблон
Теперь вы узнали все новые схемы мошенничества и готовы быть начеку. Делитесь статьёй с друзьями и близкими, чтобы и их предупредить об опасности. До скорых встреч!

 
  • Теги
    информационная безопасность искусственный интеллект машинное обучение
  • Сверху Снизу