Как ИИ влияет на детей в Москве
Как ИИ влияет на детей в Москве
Виктория Орлова Опубликована сегодня в 20:10

ИИ уже снимает фальшивые видео — вот как понять, что вы смотрите обман

С развитием генеративных технологий граница между реальностью и искусственным контентом становится всё тоньше. Современные нейросети способны создавать видео, неотличимые от настоящих, — будь то рекламный ролик, новостной сюжет или даже имитация живого человека. Однако специалисты портала MakeUseOf выделили несколько признаков, по которым можно распознать фальсификацию.

1. Невозможная физика

Самый очевидный сигнал — поведение объектов, нарушающее законы физики.
ИИ-видео нередко содержит нелогичные движения:

  • предметы резко меняют направление без видимой причины;

  • прыжки или падения происходят с чрезмерной лёгкостью;

  • жидкости ведут себя как твёрдые тела, а тени движутся неправильно.

Даже если в фильмах используются спецэффекты, профессиональные операторы и монтажёры обычно сохраняют реалистичную динамику. Нейросеть же генерирует кадры по отдельности и не всегда соблюдает физические связи между ними.

"В ИИ-видео часто чувствуется "нечто не так” — мозг замечает, что движение или гравитация выглядят неправдоподобно", — отмечает медиаэксперт Крис Хансен.

2. Плохие переходы между сценами

Человеческий монтаж всегда подчинён логике — зритель должен понимать, что, где и зачем происходит.
Нейросети пока не умеют этого делать:

  • объекты могут внезапно исчезнуть или смениться другими;

  • ракурсы прыгают без объяснения;

  • иногда меняется даже освещение или время суток.

ИИ формирует каждый кадр отдельно, не анализируя общую историю. Поэтому сцены часто выглядят как набор несвязанных фрагментов.

3. Неестественные движения и мимика

Мимика — слабое место нейросетей. Мы привыкли к мельчайшим нюансам выражений лица, поэтому даже малейшее искажение кажется странным.

Обратите внимание на:

  • подёргивания губ и щёк;

  • неестественное моргание или его полное отсутствие;

  • замороженные улыбки и нелогичные смены эмоций;

  • движения рук, которые будто "плывут" или проходят сквозь предметы.

Пока ИИ не умеет полностью копировать нейронную точность человеческих эмоций - они остаются слишком сложными для машинного воспроизведения.

4. Визуальный шум и ошибки фона

Фон — ещё один маркер искусственного видео. Нейросети сосредотачиваются на главном объекте, игнорируя детали окружения.

Типичные признаки:

  • размытые или "дрожащие” текстуры;

  • искажённые предметы (например, книги с нереалистичными обложками, "плавящиеся" здания);

  • "лесенки" и мерцание при движении камеры;

  • фоновые люди, которые моргают или двигаются неестественно.

"Если приглядеться к заднему плану, в ИИ-ролике почти всегда можно заметить артефакты — размытые пальцы, лишние предметы или искажённые надписи", — отмечает цифровой аналитик Эмма Рейд.

5. Несовпадение эмоций и действий

Когда в кадре присутствует человек, несостыковки становятся особенно заметны:

  • герой улыбается в момент опасности;

  • выражение лица не соответствует тону голоса;

  • движения губ не совпадают с речью.

Так происходит потому, что нейросеть не понимает контекст - она просто комбинирует вероятные визуальные паттерны. Её "эмоции" — это статистика, а не сознательное выражение чувств.

Таблица "Основные признаки ИИ-видео"

Признак Как проявляется Почему возникает
Невозможная физика Движения без инерции, странная гравитация Алгоритм не моделирует физику
Плохие переходы Смена сцен без логики Отсутствие контекста и сценарного анализа
Мимика Искажённые эмоции, "застывшие" лица Недостаточная детализация модели
Ошибки фона Размытые текстуры, неправильные предметы Приоритет главного объекта
Эмоциональные несостыковки Лицо и действия не совпадают Отсутствие понимания смысла

Ошибка → Последствие → Альтернатива

  • Ошибка: доверять реалистичному изображению.
    Последствие: распространение фейковых видео.
    Альтернатива: проверять источники и метаданные.

  • Ошибка: судить о достоверности по лицу человека.
    Последствие: попадание под манипуляцию дипфейков.
    Альтернатива: анализировать детали — фон, тени, отражения.

  • Ошибка: делиться сомнительным видео в соцсетях.
    Последствие: участие в распространении дезинформации.
    Альтернатива: использовать обратный поиск изображений и фактчекинг.

А что если ИИ станет идеален?

Специалисты предупреждают, что с ростом вычислительных мощностей нейросети будут всё лучше маскировать ошибки. Уже сейчас модели типа Sora или Runway Gen-3 генерируют реалистичную физику и лица. Поэтому в будущем главным инструментом защиты станет не зрение, а критическое мышление и системы автоматической верификации.

Плюсы и минусы ИИ-видео

Аспект Плюсы Минусы
Технологии Новый уровень визуального творчества Угроза фейков и подделок
Скорость Быстрое производство контента Потеря доверия к видео
Экономия Снижение затрат на съёмку Риски манипуляций и мошенничества

FAQ

Можно ли обычному зрителю распознать ИИ-видео?
Да, если обращать внимание на физику, фон, мимику и плавность монтажа.

Помогают ли нейросети определять другие нейросети?
Да, уже существуют инструменты, анализирующие пиксели и метаданные, например Hive Moderation и Deepware.

Можно ли доверять видеосвидетельствам в новостях?
Стоит проверять источник и искать подтверждения из независимых каналов.

Мифы и правда

Миф: ИИ-видео всегда видно с первого взгляда.
Правда: современные генераторы могут создавать кадры, требующие экспертной проверки.

Миф: дипфейки делают только мошенники.
Правда: технологии активно применяются в кино, рекламе и образовании.

Миф: если лицо выглядит естественно — видео настоящее.
Правда: алгоритмы умеют копировать лицевые особенности и движения.

Три интересных факта

• Первые дипфейки появились в 2017 году и были сделаны с помощью GAN-сетей.
• Уже существуют нейросети, способные создавать видео длиной более минуты без потери качества.
• Некоторые платформы, включая YouTube, внедряют автоматические водяные знаки, чтобы помечать ИИ-контент.

Исторический контекст

• В 2010-х появились первые инструменты замены лиц в видео.
• В 2020-х дипфейки начали активно использовать в рекламе и развлечениях.
• В 2025 году эксперты подчеркнули: распознать подделку всё ещё возможно, если знать, на что смотреть - детали, движения и эмоции остаются ахиллесовой пятой искусственного интеллекта.

Подписывайтесь на Экосевер

Читайте также

ИИ Сбера научился читать не только лица, но и чувства: технологии выходят на новый уровень сегодня в 13:33

Учёные Сбера разработали ИИ, который распознаёт сложные эмоции человека по видео и фото, работает без интернета и обеспечивает полную защиту данных.

Читать полностью »
Дорога, которая сама делится энергией: мечта инженеров стала реальностью сегодня в 12:04

Франция открыла первую в мире дорогу, которая заряжает электромобили прямо во время движения — новая технология обещает перевернуть транспорт будущего.

Читать полностью »
Продукт, которого боялись, оказался защитником: арахис помогает детям избежать опасных реакций сегодня в 11:49

Учёные выяснили, что раннее введение арахиса в рацион младенцев снижает риск аллергии почти на 40%, но делать это нужно только под контролем врача.

Читать полностью »
Учёные нашли клетки, которые знают, как вырастить зуб — природа раскрыла свой план сегодня в 10:27

Учёные из Университета Йонсе обнаружили клетки, которые управляют ростом зубов, и раскрыли механизмы их самоорганизации — шаг к будущей регенерации зубов у человека.

Читать полностью »
Россияне едят сахара вчетверо больше нормы: Минздрав бьёт тревогу сегодня в 9:33

Россияне потребляют сахара в четыре раза больше нормы, предупредил Минздрав. Эксперты предлагают изменить пищевые привычки и формировать культуру здорового питания с детства.

Читать полностью »
Искусственный интеллект может оказаться слишком умным: эксперт рассказал, когда ИИ становится опасен сегодня в 8:32

Эксперт по кибербезопасности Алексей Лукацкий предупредил, что чрезмерное увлечение искусственным интеллектом без понимания целей его применения может привести к зависимости и потере критического мышления.

Читать полностью »
Из сахара — в свет: российские химики заставили сладость светиться сегодня в 7:10

Химики из УрФУ научились получать флуоресцентные красители из сахара и целлюлозы. Новые материалы экологичны, безопасны и подходят для биомедицинских технологий.

Читать полностью »
Учёные нашли способ вернуть волосы без пересадки и химии — и это работает сегодня в 6:17

Тайваньские учёные создали сыворотку, которая запускает рост волос за счёт активации жировых клеток кожи. Средство готовят к клиническим испытаниям на людях.

Читать полностью »