Все новости

МВД предупредило о схемах мошенничества с использованием нейросетей

- Эта информация не является достоверной. Звук в ролике сгенерирован искусственно, а использованное видео взято из другой статьи, ранее опубликованной МВД Курской области.

Просим граждан обращать внимание и проверять информацию в социальных сетях. Мнения сотрудников МВД России о Курской области опубликованы на официальном ведомственном интернет-ресурсе, сообщили гражданам в ГУВД.

Этот вид мошенничества, предполагающий подделку имиджа и голоса ничего не подозревающего человека, в нашей стране только начинает набирать обороты, и последствия очень опасны. Правда, уровень образов и голосов, генерируемых искусственным интеллектом, пока не может быть осознан не только обычными гражданами, но и экспертами, которые уже забили тревогу.

Примером того, как легко обмануть людей с помощью искусственного интеллекта, может служить преступление, произошедшее не так давно на Алтае. Там мошенники подделали аудио- и видеозаписи жителей Барнаула. И таким образом им удалось украсть у ее друзей много денег.

Десятки контактов этого гражданина получили фейковые сообщения от мошенника. Ее зовут Марина Василенко. Ее голос был в сообщениях друзьям и знакомым, но сама девушка никому ничего не отправляла.

Первые пять человек из ее списка контактов сразу отреагировали на запрос и отправили на неизвестную карту более 100 000 рублей.

План их действий следующий: Мошенники взломали Telegram-аккаунт Марины. В разговоре я нашел видео и аудио сообщения. С помощью искусственного интеллекта они создали что-то новое, но с нужным текстом. Старые друзья и родственники ничего не подозревали. В конце концов они не только услышали знакомый голос, но и получили видеообращение от девушки. Гражданин, о котором идет речь, уже подал заявление в полицию. В Алтайском крае это первый случай мошенничества с использованием нейросетей. Но полиция уверена, что этот инцидент не будет последним. По мнению экспертов, ранее можно было подделать голос другого человека, а также создать дипфейк — видео, содержащее лицо другого человека. Но несколько лет назад это занимало несколько дней. Но сейчас на создание такого «говорящего» образа уходит меньше минуты.

Полиция предупреждает граждан. Если человек получает видео и знакомый голос срочно просит одолжить денег, лучше не торопиться и «не верить своим глазам». Представители правоохранительных органов советуют: Прежде чем предпринимать какие-либо действия, вам следует еще раз позвонить человеку, который просит о помощи.

Эксперты МВД подсчитали, что только в этом году жители Алтайского края уже потеряли более 1 млрд рублей из-за действий мошенников в сфере информационных технологий. Сколько таких ситуаций по стране? Таких расчетов пока нет, но уже ясно, что цифры будут очень большими.

По мнению экспертов, подделать чей-то голос можно за считанные дни, так же, как снять видео с его лицом. Но теперь это занимает меньше минуты

Вот как сегодня выглядит новый план трюков для пользователей Telegram.

Телефонные мошенники получают доступ к аккаунту, а затем начинают писать сообщения потенциальным жертвам из списка контактов владельца с просьбой перевести деньги. Самое главное – перевестись как можно скорее.

Для большей убедительности добавлено голосовое сообщение от владельца аккаунта. В аудиосообщениях используются отрывки из предыдущих голосовых сообщений. Это аудиосообщение будет доставлено во все чаты, в которых участвует владелец аккаунта.

Этот план пока новый для нашей страны, но уже «опробован» в других странах. Однако способ противостоять этому пока не найден.


Источник: Российская Газета: издание Правительства РФРоссийская Газета: издание Правительства РФ

Загрузка новости...

Долг дороже подруги

Загрузка новости...

Фитнес начал выдыхаться

Loading...