Искусственный интеллект
Искусственный интеллект
Сергей Данилов Опубликована сегодня в 14:33

Может ли искусственный интеллект распознать ложь? Учёные получили тревожный ответ

Может ли искусственный интеллект отличить ложь от правды? Этот вопрос волнует не только инженеров и психологов, но и специалистов по этике, безопасности и коммуникации. Новое масштабное исследование, проведённое учёными из Мичиганского государственного университета и Университета Оклахомы, даёт однозначный ответ: современные генеративные ИИ-модели пока не способны надёжно определять, обманывает ли их человек.

Работа, в которой участвовали более 19 тысяч человек, показала, что искусственный интеллект, несмотря на кажущиеся успехи в понимании человеческой речи и эмоций, всё ещё далёк от способности интерпретировать правдивость высказываний.

"Цель исследования не только в оценке возможностей ИИ, но и в предупреждении специалистов о рисках преждевременного использования больших языковых моделей для распознавания лжи", — пояснил ведущий автор, доцент кафедры коммуникации Дэвид Марковиц.

Как проводилось исследование

Учёные провели 12 экспериментов, чтобы оценить, как ИИ реагирует на человеческие высказывания в разных ситуациях. Использовалась специализированная платформа Viewpoints AI, на которой искусственному интеллекту предоставлялись аудио- и видеоматериалы с реальными участниками.

ИИ-персонажи должны были определить, говорит ли человек правду, и обосновать свой вывод. Для чистоты эксперимента варьировались:

  • тип медиа (видео, аудио, текст);

  • эмоциональный фон и контекст (допрос, личный разговор, рассказ о знакомых);

  • доля ложных и правдивых утверждений;

  • параметры поведения самого ИИ.

Результаты оказались высоко зависимыми от контекста.

Когда ИИ ошибается, а когда попадает в точку

В некоторых экспериментах искусственный интеллект показывал впечатляющие результаты: до 85,8% точности при распознавании обмана в стрессовых ситуациях, например при имитации допроса. Однако в тех же условиях он с трудом определял правду - лишь в 19,5% случаев.

Это говорит о том, что ИИ склонен переоценивать вероятность лжи, в отличие от человека, который чаще исходит из предположения честности.

"Люди в большинстве случаев склонны считать других правдивыми — это эволюционный механизм, защищающий психику от постоянного напряжения. Мы сравнили эту естественную склонность с поведением ИИ", — пояснил Марковиц.

В нейтральных сценариях, таких как оценка бытовых утверждений, алгоритмы начинали действовать как люди — верить чаще, чем сомневаться, но точность при этом снижалась.

Сравнение: человек против ИИ

Параметр Человек Искусственный интеллект
Склонность к доверию Высокая Зависит от контекста
Распознавание лжи Средняя (55-60%) От 20% до 85% (нестабильно)
Распознавание правды Высокая Часто низкая
Эмоциональная чувствительность Есть Имитация без понимания
Контекстная зависимость Умеренная Очень высокая

Теория истины по умолчанию

Исследователи опирались на теорию истины по умолчанию (Truth-Default Theory), согласно которой человек эволюционно настроен доверять другим. Это снижает когнитивную нагрузку и делает коммуникацию устойчивой.

ИИ, лишённый человеческой эмпатии и опыта, не способен формировать доверие, поэтому реагирует либо чрезмерно подозрительно, либо наоборот — принимает всё за правду. В обоих случаях ошибка восприятия высока.

Ошибка → Последствие → Альтернатива

  • Ошибка: доверять ИИ в вопросах обнаружения лжи.
    Последствие: риск ложных обвинений или неверной интерпретации поведения.
    Альтернатива: использовать ИИ как вспомогательный инструмент, а не как конечный арбитр.

  • Ошибка: считать, что обучение на больших данных решит проблему.
    Последствие: воспроизведение предвзятостей и эмоциональных искажений.
    Альтернатива: включать междисциплинарные подходы — психолингвистику, социологию, нейронауку.

  • Ошибка: использовать ИИ в следственных экспериментах без верификации.
    Последствие: нарушения этики и возможные судебные ошибки.
    Альтернатива: тестирование под контролем специалистов по поведению и коммуникации.

Контекст имеет значение

Одним из ключевых выводов работы стало понимание, что ИИ чрезвычайно чувствителен к контексту. Он лучше справляется с анализом напряжённых или формализованных ситуаций, но теряет точность в повседневных, эмоционально насыщенных разговорах.

"Хотя ИИ и проявил чувствительность к контексту, это никак не улучшило его общую способность к распознаванию обмана", — уточнили авторы исследования.

В целом результаты показали, что ИИ чаще ошибается, чем попадает в цель. Его реакция остаётся алгоритмической, а не когнитивной: он не понимает мотивов, а лишь оценивает статистические признаки поведения.

А что если дать ИИ "эмпатию"

Учёные обсуждают возможность внедрения эмоциональных моделей - систем, способных учитывать не только слова, но и контекст невербального поведения, микромимику и интонации. Однако пока ни одна ИИ-система не показала устойчивой способности интерпретировать обман с человеческой точностью и интуицией.

Скорее всего, путь к "распознающему ложь" ИИ лежит не через увеличение вычислительной мощности, а через приближение моделей к человеческому восприятию эмоций и доверия.

Плюсы и минусы ИИ в распознавании лжи

Плюсы Минусы
Может анализировать огромные объёмы данных Не различает эмоции и намерения
Не подвержен усталости и субъективности Зависит от контекста и формата данных
Быстро обучается на новых примерах Ошибается в реальных человеческих коммуникациях
Может быть полезен как вспомогательный инструмент Опасен при принятии юридически значимых решений

FAQ

Может ли ИИ действительно "чувствовать” ложь?
Нет. ИИ опирается на статистику и шаблоны, но не понимает мотивов или контекста человеческих эмоций.

Почему ИИ часто ошибается?
Потому что в речи ложь и правда выражаются схожими языковыми паттернами, и различить их можно только с учётом интонации, жестов и ситуации.

Используют ли ИИ для детекции лжи сейчас?
Да, но только в экспериментальных целях. В правоохранительных и юридических системах такие методы не признаны надёжными.

Мифы и правда

  • Миф: "ИИ способен определять ложь лучше человека".
    Правда: точность ИИ сильно варьируется и часто уступает человеческой.

  • Миф: "Больше данных — меньше ошибок".
    Правда: качество данных важнее объёма, иначе алгоритм лишь повторяет ошибки.

  • Миф: "ИИ нейтрален и беспристрастен".
    Правда: модели наследуют предвзятости, присутствующие в обучающих выборках.

Интересные факты

• Средняя точность человека в распознавании лжи — около 54%, то есть лишь немного выше случайного угадывания.
• Психологи утверждают, что эмпатия и контекст - главные инструменты в распознавании обмана, чего ИИ лишён.
• Некоторые стартапы уже заявляют о разработке "эмоциональных детекторов", но их эффективность пока не доказана.

Исторический контекст

Попытки автоматизировать распознавание лжи ведутся с середины XX века — от полиграфов до современных видеонейросетей. Но даже классический "детектор лжи" не признан научно надёжным. Теперь исследователи проверяют, сможет ли ИИ преодолеть ограничения человека, не утратив при этом этической и когнитивной точности. Пока ответ отрицательный: машины ещё не научились понимать правду так, как это делает человек.

Подписывайтесь на Экосевер

Читайте также

Технологии на кончике пальца: как умное кольцо от Сбера учит слышать тело вчера в 23:35

Сбер выпустил первое в России умное кольцо, которое помогает отслеживать стресс, сон и общее самочувствие. Устройство на базе ИИ GigaChat делает заботу о здоровье незаметной и умной.

Читать полностью »
Машина, которая слышит акцент: как ИИ помогает миру выучить русский язык вчера в 22:58

Учёные из РУДН создали ИИ-тренажёр, который помогает иностранцам совершенствовать произношение на русском языке. Программа анализирует речь, указывает ошибки и обучает корректному звучанию без участия преподавателя.

Читать полностью »
Когда каждый шаг имеет значение: как прогулки переписывают судьбу мозга вчера в 21:09

Учёные выяснили, что регулярная ходьба способна отсрочить болезнь Альцгеймера до семи лет. Даже 3-5 тысяч шагов в день значительно замедляют когнитивное старение мозга.

Читать полностью »
От сакуры к вину: в Японии вывели уникальный сорт винограда с местными корнями вчера в 20:10

Японские учёные вывели новый сорт винограда "Мускат Сирагай" на основе местного автохтона. Уже через несколько лет он может стать основой для первых терруарных японских вин.

Читать полностью »
Ешь и помни: как обычные орехи улучшают память и питание мозга вчера в 20:05

Учёные выяснили, что две порции арахиса в день усиливают кровоток в мозге и улучшают память, снижая риск возрастных когнитивных нарушений.

Читать полностью »
Телефон в темноте — враг сердца: как ночной свет запускает тихие болезни вчера в 19:35

Учёные выяснили, что привычка смотреть в телефон перед сном нарушает циркадные ритмы, вызывает воспаление сосудов и увеличивает риск сердечных заболеваний.

Читать полностью »
926 генов разногласий: как мозг решает, кем ты станешь, ещё до твоего первого вдоха вчера в 19:34

Учёные выяснили, что более 900 генов работают по-разному в мозге мужчин и женщин. Это открытие может изменить подход к лечению болезней мозга и психических расстройств.

Читать полностью »
Когда шутка становится насилием: как троллинг ломает психику и разрушает жизнь вчера в 18:30

Психолог Варвара Делибалт объяснила, почему троллинг — это не шутка, а форма насилия, способная разрушить самооценку и довести до депрессии.

Читать полностью »