ИИ научился воскрешать умерших: новая технология пугает даже фанатов цифрового будущего
Идея цифрового воскрешения давно вызывает споры, но очередная попытка воплотить её в реальность стала поводом для громкой критики. Актёр Кэлам Уорси, известный по сериалу "Остин и Элли", представил приложение 2wai, позволяющее создавать анимированные ИИ-аватары умерших людей. Проект подан как "живой архив человечества", но реакция пользователей оказалась противоположной ожиданиям: многих концепция шокировала, а само приложение сочли неэтичным и потенциально опасным. Скандал разгорелся вокруг рекламного ролика, где беременная женщина разговаривает с цифровой копией своей покойной матери, а затем виртуальная "бабушка" читает сказки внуку и остаётся частью его жизни на протяжении нескольких лет.
В чём идея проекта 2wai
Разработчики позиционируют своё приложение как инструмент сохранения памяти. 2wai создаёт HoloAvatar — анимированные интерфейсы, способные вести переписку и имитировать общение с человеком. Пользователь загружает видео, и ИИ формирует аватар, внешне похожий на реального человека.
Особенно много вопросов вызвало обещание получать достаточно данных всего из трёх минут видео. Как именно алгоритм восстанавливает манеру речи, особенности мышления и эмоциональные реакции — компания не объяснила. Именно это стало одной из причин недоверия аудитории.
Почему рекламный ролик вызвал возмущение
Видеоролик оказался провокационным. Зрителям предложили представить, как ИИ-"родственник" становится частью семьи, взаимодействует с новорождённым и сопровождает ребёнка годами. Пользователи соцсетей назвали такую идею тревожной, отметив:
• коммерциализацию горя;
• риск психологических нарушений у детей;
• искажение процесса переживания утраты;
• возможные злоупотребления данными умерших людей.
Многие сравнили приложение с эпизодом "Скоро вернусь" сериала "Чёрное зеркало", где цифровая копия покойного заменяет живого человека — и провоцирует эмоциональное разрушение.
Опасения специалистов
Исследователи из Кембриджа предупреждают: подобные технологии уже несут риски. Цифровые аватары усопших могут:
• использоваться для скрытой рекламы;
• провоцировать у детей чувство, что родитель "всё ещё рядом";
• становиться источником психологической зависимости;
• навязывать коммуникацию, если приложение начнёт отправлять сообщения автоматически.
Фактически создаётся сценарий, который эксперты называют "цифровым преследованием из-за границы", когда покойный человек продолжает "общаться" без согласия живых родственников.
Сравнение: цифровая память vs ИИ-аватары
| Критерий | Обычные способы сохранения памяти | ИИ-аватары умерших (2wai) |
| Контроль данных | Полный — у семьи | Частичный — у сервиса |
| Эмоциональная безопасность | Высокая | Может вызвать зависимость |
| Точность | Фактическая история | Спорная имитация личности |
| Риски злоупотребления | Минимальные | Высокие: реклама, фейки, манипуляции |
| Этические вопросы | Небольшие | Глобальные, нерешённые |
Советы шаг за шагом: как безопасно использовать технологии памяти
(информационный блок, НЕ призыв к использованию 2wai)
1. Оценить эмоциональную готовность
Технологии, связанные с памятью об умерших, требуют осторожности. Важно понимать, как они могут повлиять на психику.
2. Проверять политику хранения данных
Любой сервис, работающий с изображениями людей, должен чётко объяснять условия доступа, удаления и пересылки информации.
3. Использовать проверенные формы цифровой памяти
Фотографии, видеоархивы, семейные истории — безопасная и эмоционально устойчивая альтернатива.
4. Следить за детьми
Если в семье используют подобные технологии, дети должны понимать разницу между жизнью и цифровой имитацией.
5. Не полагаться на ИИ как на "продолжение общения"
Важно помнить: ИИ создаёт иллюзию, а не возвращает человека.
Ошибка → Последствие → Альтернатива
• Пытаться заменить реальную терапию ИИ-аватаром
→ ухудшение переживания утраты
→ обращение к специалисту и работа с эмоциями.
• Загружать данные родственников без их прижизненного согласия
→ нарушение этики и приватности
→ сохранять право человека на посмертную цифровую тишину.
• Давать детям доступ к цифровым копиям
→ путаница, тревога, нарушение границ реальности
→ адаптированные объяснения о смерти и памяти.
• Считать цифровую копию "точной копией личности"
→ формирование ложных ожиданий
→ восприятие ИИ как инструмента, а не как личности.
А что если ИИ-аватары станут нормой?
Возможно, через десятилетия появятся новые культурные нормы. Но уже сейчас очевидно: технологии, работающие на эмоциях и потере, требуют серьёзных рамок:
• юридических;
• этических;
• психологических;
• технологических.
Без таких ограничений риски слишком велики: от мошенничества и эмоциональных манипуляций до злоупотреблений личными архивами.
Таблица "Плюсы и минусы" ИИ-аватаров умерших
| Плюсы | Минусы |
| Возможность хранить голос и образ | Риск психологических зависимостей |
| Доступ к истории семьи | Высокая уязвимость данных |
| Цифровая реконструкция памяти | Иллюзия присутствия покойного |
| Новые формы архивирования | Неясные юридические границы |
| Потенциал для мемориальных сервисов | Этические конфликты и эксплуатация горя |
FAQ
Может ли ИИ точно воспроизвести личность умершего?
Нет. Он имитирует речь и поведение, но не восстанавливает сознание или индивидуальность.
Безопасно ли давать такие аватары детям?
Специалисты считают это потенциально вредным и вызывающим путаницу.
Предоставляет ли 2wai гарантии конфиденциальности?
Компания не раскрыла подробностей, что и стало причиной сомнений аудитории.
Может ли приложение помочь пережить утрату?
Клинических доказательств нет. Многие специалисты считают такой подход вредным.
Мифы и правда
Миф: цифровой аватар помогает "вернуть" человека.
Правда: это алгоритм, создающий иллюзию общения.
Миф: трёхминутного видео достаточно для точной копии.
Правда: такая реконструкция крайне неполная и условная.
Миф: цифровое воскрешение безопасно.
Правда: оно может нарушить процесс горевания и привести к эмоциональным проблемам.
Сон и психология
Люди, использующие подобные сервисы после утраты, могут столкнуться с бессонницей, повышенной тревожностью и "ложными вспышками присутствия". У мозга формируется новый цикл ожиданий, который мешает проживать горе естественно. Психологи отмечают, что иллюзорный контакт с умершим может долго удерживать человека в фазе отрицания.
Интересные факты
-
Первые попытки создать цифровые копии умерших появились ещё в 2010-х годах.
-
Термин "grief tech" используется для обозначения технологий, работающих на переживаниях утраты.
-
Этические комитеты в США и ЕС уже обсуждают необходимость регулирования "цифровых двойников".
Исторический контекст
• 2013: выход эпизода "Скоро вернусь", впервые поднявшего вопрос об ИИ-копиях умерших.
• 2020-е: появление первых коммерческих сервисов "цифрового бессмертия".
• 2024: рост числа стартапов в области "grief tech", вызывающих общественные споры.
• 2025: запуск 2wai и новая волна дискуссий о границах ИИ.
Развитие ИИ неизбежно будет открывать новые способы хранить память о людях. Однако без чётких этических границ такие проекты превращают личную трагедию в продукт. Важно, чтобы технологический прогресс учитывал психологические и культурные последствия, иначе последствия окажутся разрушительнее любых инноваций.
Подписывайтесь на Экосевер