Хакер
Хакер
Юрий Манаков Опубликована сегодня в 12:38

Мошенники воскрешают умерших с помощью нейросетей — новая афера шокировала экспертов

Мошенники начали использовать нейросети для создания цифровых копий умерших людей

Технологии, которые ещё недавно казались частью научной фантастики, сегодня становятся оружием в руках аферистов. В России и мире участились случаи, когда мошенники используют нейросети для создания цифровых копий умерших людей - чтобы манипулировать чувствами живых, оформлять кредиты и даже обходить системы биометрической защиты.

"Аферисты создают виртуальные копии, имитирующие голос, мимику и манеру общения человека", — рассказали специалисты по кибербезопасности.

Как работает схема

Для создания "воскрешённой" личности злоумышленникам достаточно собрать фотографии, видео и голос человека — всё это обычно можно найти в социальных сетях. Нейросеть на основе этих данных создаёт реалистичную цифровую копию, которая может говорить, двигаться и даже реагировать на эмоции собеседника.

Затем мошенники выходят на родственников или друзей умершего, используя чат или видеосвязь. Искусственный "человек" может поздороваться, вспомнить общие моменты, попросить о помощи или предложить "вложиться в проект". Для переживающих утрату людей это становится эмоциональным шоком.

"Некоторые жертвы верят, что человек каким-то образом действительно жив", — отметил эксперт по информационной безопасности Андрей Литовченко.

После установления доверия аферисты начинают действовать: просят перевести деньги, оформить подписку, приобрести криптовалюту или вложиться в "общее дело".

Иногда цифровую копию используют и для оформления микрозаймов - ведь современные системы биометрии можно обмануть реалистичным голосом или видео с лицом, созданным нейросетью.

Почему это становится возможным

Современные генеративные модели — вроде тех, что создают deepfake-видео - обучаются на миллионах изображений и способны воссоздать человека до мельчайших деталей. При этом доступ к таким инструментам открыт: создать цифровой двойник можно за считанные часы, не обладая специальными знаниями.

Нейросети научились подделывать эмоции, свет, голос и мимику, что делает фальшивку почти неотличимой от оригинала. Когда к этому добавляется психологическое давление — особенно на фоне горя — шансы распознать обман резко падают.

Сравнение: классические и новые методы мошенничества

Критерий Классические схемы С применением нейросетей
Способ обмана Телефонные звонки, поддельные сайты Видеосвязь, deepfake, цифровые копии
Эмоциональное давление Страх, паника Сострадание, ностальгия
Доказательства подлинности Документы, подписи Биометрия, видео, голос
Сложность распознавания Средняя Очень высокая
Потенциальный ущерб Финансовый Финансовый + психологический

Как защититься: пошаговые советы

  1. Не доверяйте цифровым "встречам". Если вы видите человека онлайн, которого считали умершим — это однозначный сигнал опасности.

  2. Проверяйте источник связи. Настоящие аккаунты давно неактивны? Значит, это подделка.

  3. Не переводите деньги и не сообщайте личные данные. Ни при каких обстоятельствах.

  4. Проверяйте видео на deepfake. Существуют сервисы, способные анализировать поддельные кадры по движению глаз и артефактам лица.

  5. Сообщайте о подозрительных контактах. В таких случаях нужно обращаться в полицию или службу кибербезопасности вашего банка.

"Чем реалистичнее становятся нейросети, тем выше риск психологического шантажа", — подчеркнул эксперт Андрей Литовченко.

Ошибка → Последствие → Альтернатива

Ошибка Последствие Альтернатива
Общаться с "воскрешённым" человеком Попасть под эмоциональный шантаж Прервать контакт и проверить источник
Переводить деньги по просьбе "знакомого" Потеря средств и данных Проверить номер, обратиться в банк
Делиться фото и видео умерших в сети Создание базы для подделки Ограничить доступ и приватность
Игнорировать настройки биометрии Возможность подделки голоса Включить двойную аутентификацию

А что если технологии выйдут из-под контроля?

Вопрос "цифрового бессмертия" давно обсуждается в этическом поле. Уже существуют сервисы, предлагающие "оживить" человека после смерти в виде аватара — с его голосом и манерой речи. Пока это выглядит как способ психологической поддержки, но грань между терапией и обманом становится всё тоньше.

Если такие технологии попадут в руки преступников, границы между реальностью и симуляцией могут окончательно стереться. Тогда защитить личность — даже после смерти — станет не менее важно, чем защитить банковский счёт.

Плюсы и минусы цифрового воскрешения

Плюсы Минусы
Возможность сохранить память о близком Риск манипуляций и мошенничества
Использование в психотерапии и искусстве Потеря приватности и личных данных
Технологическое развитие нейросетей Размывание границ реальности
Новые форматы общения и памяти Этические и юридические конфликты

Часто задаваемые вопросы (FAQ)

Можно ли определить подделку?
Да, существуют программы для анализа deepfake — они проверяют моргание, отражения и микродвижения.

Что делать, если вам написала "воскрешённая" копия?
Не вступать в диалог, сделать скриншоты и обратиться в киберполицию.

Можно ли защитить данные умерших родственников?
Да, ограничьте доступ к их страницам, удалите публичные видео и включите приватность профиля.

Используют ли такие технологии официальные компании?
Некоторые — в мемориальных проектах, но строго с разрешения семьи.

Мифы и правда

Миф Правда
Цифровое "воскрешение" — фантастика Уже возможно с помощью нейросетей
Это делают только хакеры Часто — обычные мошенники с доступом к сервисам ИИ
Нейросети невозможно обмануть Наоборот, именно они становятся инструментом обмана
Deepfake легко распознать Современные модели делают копии почти неотличимыми

Исторический контекст

  1. Первые deepfake-видео появились в 2017 году и использовались для подделки лиц знаменитостей.

  2. В 2020-х годах технологии достигли уровня, когда подделку стало трудно отличить от оригинала.

  3. Сегодня ИИ способен воспроизводить голос и интонации человека по 10-секундной записи.

Три интересных факта

  1. Некоторые компании разрабатывают "виртуальные мемориалы" — аватары умерших, с которыми можно поговорить.

  2. Deepfake-технологии уже используются в кино для "омоложения" актёров.

  3. В США обсуждают закон, запрещающий использовать цифровые копии без письменного согласия человека.

Подписывайтесь на Экосевер

Читайте также

Эксперт предупредил об опасности зарядки телефона через USB-порты в торговых центрах и аэропортах сегодня в 13:23
Эксперты предупредили: заряжать телефон в ТЦ и аэропортах — опасно

Зарядка телефона через общественные USB-порты может стоить вам личных данных. Эксперты рассказали, как работает "juice jacking" и как защититься.

Читать полностью »
В российских вузах введут тестирование студентов на принятие традиционных ценностей сегодня в 4:44
Новый формат воспитания: вузам добавят уровень нравственности

В вузах появится цифровое тестирование, оценивающее отношение студентов к традиционным ценностям. Проверка будет добровольной, а результаты — использоваться для рекомендаций по воспитательной работе.

Читать полностью »
В Госдуме предложили распространить запрет на нецензурную брань на интернет сегодня в 3:16
Интернет без мата: утопия или новая реальность

В Госдуме предложили распространить запрет на мат и на интернет. Депутаты считают, что за нецензурную лексику в сети должны штрафовать или блокировать публикации автоматически.

Читать полностью »
Офтальмологи фиксируют увеличение случаев синдрома сухого глаза из-за работы за компьютером сегодня в 2:45
Сначала жжение и усталость — потом слепота: новая угроза для работников офисов

Российские врачи сообщили о "пандемии" заболеваний глаз. Постоянная работа за компьютером вызывает синдром сухого глаза, конъюнктивит и даже риск слепоты.

Читать полностью »
Кардиолог предупредил, что вирусные инфекции могут вызвать миокардит у молодых людей сегодня в 1:59
Вирусы атакуют не только лёгкие: кардиологи предупредили о скрытой угрозе сердцу

Кардиологи предупреждают: даже лёгкая вирусная инфекция может повредить сердце. Почему недосып и простуда опасны для молодых и как вовремя распознать миокардит.

Читать полностью »
В Тверской области супружеская пара погибла после отравления грибами сегодня в 0:06
Смертельный сбор: семейная пара не знала, что в корзине — яд

В Тверской области погибла супружеская пара после употребления собранных грибов. Эксперты напомнили: даже один ошибочно выбранный гриб может стать смертельным.

Читать полностью »
Исследователи связали приём таблеток от выпадения волос с депрессией и суицидальными мыслями вчера в 23:58
Лекарство от выпадения волос оказалось опаснее, чем думали: новое расследование учёных

Учёные заявили, что препараты от облысения на основе финастерида могут вызывать депрессию и даже суицидальные мысли. Десятилетиями фармкомпании и регуляторы игнорировали тревожные сигналы.

Читать полностью »
Учёные выяснили, что контакт с собаками снижает стресс и замедляет старение клеток у женщин вчера в 22:06
Верный друг — лекарство от возраста: как собаки сохраняют молодость

Учёные установили, что общение с собаками помогает женщинам замедлить клеточное старение. Всего час в неделю с питомцем улучшает настроение и здоровье на уровне ДНК.

Читать полностью »