
Мошенники воскрешают умерших с помощью нейросетей — новая афера шокировала экспертов
Технологии, которые ещё недавно казались частью научной фантастики, сегодня становятся оружием в руках аферистов. В России и мире участились случаи, когда мошенники используют нейросети для создания цифровых копий умерших людей - чтобы манипулировать чувствами живых, оформлять кредиты и даже обходить системы биометрической защиты.
"Аферисты создают виртуальные копии, имитирующие голос, мимику и манеру общения человека", — рассказали специалисты по кибербезопасности.
Как работает схема
Для создания "воскрешённой" личности злоумышленникам достаточно собрать фотографии, видео и голос человека — всё это обычно можно найти в социальных сетях. Нейросеть на основе этих данных создаёт реалистичную цифровую копию, которая может говорить, двигаться и даже реагировать на эмоции собеседника.
Затем мошенники выходят на родственников или друзей умершего, используя чат или видеосвязь. Искусственный "человек" может поздороваться, вспомнить общие моменты, попросить о помощи или предложить "вложиться в проект". Для переживающих утрату людей это становится эмоциональным шоком.
"Некоторые жертвы верят, что человек каким-то образом действительно жив", — отметил эксперт по информационной безопасности Андрей Литовченко.
После установления доверия аферисты начинают действовать: просят перевести деньги, оформить подписку, приобрести криптовалюту или вложиться в "общее дело".
Иногда цифровую копию используют и для оформления микрозаймов - ведь современные системы биометрии можно обмануть реалистичным голосом или видео с лицом, созданным нейросетью.
Почему это становится возможным
Современные генеративные модели — вроде тех, что создают deepfake-видео - обучаются на миллионах изображений и способны воссоздать человека до мельчайших деталей. При этом доступ к таким инструментам открыт: создать цифровой двойник можно за считанные часы, не обладая специальными знаниями.
Нейросети научились подделывать эмоции, свет, голос и мимику, что делает фальшивку почти неотличимой от оригинала. Когда к этому добавляется психологическое давление — особенно на фоне горя — шансы распознать обман резко падают.
Сравнение: классические и новые методы мошенничества
Критерий | Классические схемы | С применением нейросетей |
Способ обмана | Телефонные звонки, поддельные сайты | Видеосвязь, deepfake, цифровые копии |
Эмоциональное давление | Страх, паника | Сострадание, ностальгия |
Доказательства подлинности | Документы, подписи | Биометрия, видео, голос |
Сложность распознавания | Средняя | Очень высокая |
Потенциальный ущерб | Финансовый | Финансовый + психологический |
Как защититься: пошаговые советы
-
Не доверяйте цифровым "встречам". Если вы видите человека онлайн, которого считали умершим — это однозначный сигнал опасности.
-
Проверяйте источник связи. Настоящие аккаунты давно неактивны? Значит, это подделка.
-
Не переводите деньги и не сообщайте личные данные. Ни при каких обстоятельствах.
-
Проверяйте видео на deepfake. Существуют сервисы, способные анализировать поддельные кадры по движению глаз и артефактам лица.
-
Сообщайте о подозрительных контактах. В таких случаях нужно обращаться в полицию или службу кибербезопасности вашего банка.
"Чем реалистичнее становятся нейросети, тем выше риск психологического шантажа", — подчеркнул эксперт Андрей Литовченко.
Ошибка → Последствие → Альтернатива
Ошибка | Последствие | Альтернатива |
Общаться с "воскрешённым" человеком | Попасть под эмоциональный шантаж | Прервать контакт и проверить источник |
Переводить деньги по просьбе "знакомого" | Потеря средств и данных | Проверить номер, обратиться в банк |
Делиться фото и видео умерших в сети | Создание базы для подделки | Ограничить доступ и приватность |
Игнорировать настройки биометрии | Возможность подделки голоса | Включить двойную аутентификацию |
А что если технологии выйдут из-под контроля?
Вопрос "цифрового бессмертия" давно обсуждается в этическом поле. Уже существуют сервисы, предлагающие "оживить" человека после смерти в виде аватара — с его голосом и манерой речи. Пока это выглядит как способ психологической поддержки, но грань между терапией и обманом становится всё тоньше.
Если такие технологии попадут в руки преступников, границы между реальностью и симуляцией могут окончательно стереться. Тогда защитить личность — даже после смерти — станет не менее важно, чем защитить банковский счёт.
Плюсы и минусы цифрового воскрешения
Плюсы | Минусы |
Возможность сохранить память о близком | Риск манипуляций и мошенничества |
Использование в психотерапии и искусстве | Потеря приватности и личных данных |
Технологическое развитие нейросетей | Размывание границ реальности |
Новые форматы общения и памяти | Этические и юридические конфликты |
Часто задаваемые вопросы (FAQ)
Можно ли определить подделку?
Да, существуют программы для анализа deepfake — они проверяют моргание, отражения и микродвижения.
Что делать, если вам написала "воскрешённая" копия?
Не вступать в диалог, сделать скриншоты и обратиться в киберполицию.
Можно ли защитить данные умерших родственников?
Да, ограничьте доступ к их страницам, удалите публичные видео и включите приватность профиля.
Используют ли такие технологии официальные компании?
Некоторые — в мемориальных проектах, но строго с разрешения семьи.
Мифы и правда
Миф | Правда |
Цифровое "воскрешение" — фантастика | Уже возможно с помощью нейросетей |
Это делают только хакеры | Часто — обычные мошенники с доступом к сервисам ИИ |
Нейросети невозможно обмануть | Наоборот, именно они становятся инструментом обмана |
Deepfake легко распознать | Современные модели делают копии почти неотличимыми |
Исторический контекст
-
Первые deepfake-видео появились в 2017 году и использовались для подделки лиц знаменитостей.
-
В 2020-х годах технологии достигли уровня, когда подделку стало трудно отличить от оригинала.
-
Сегодня ИИ способен воспроизводить голос и интонации человека по 10-секундной записи.
Три интересных факта
-
Некоторые компании разрабатывают "виртуальные мемориалы" — аватары умерших, с которыми можно поговорить.
-
Deepfake-технологии уже используются в кино для "омоложения" актёров.
-
В США обсуждают закон, запрещающий использовать цифровые копии без письменного согласия человека.
Подписывайтесь на Экосевер