Может ли искусственный интеллект распознать ложь? Учёные получили тревожный ответ

Может ли искусственный интеллект отличить ложь от правды? Этот вопрос волнует не только инженеров и психологов, но и специалистов по этике, безопасности и коммуникации. Новое масштабное исследование, проведённое учёными из Мичиганского государственного университета и Университета Оклахомы, даёт однозначный ответ: современные генеративные ИИ-модели пока не способны надёжно определять, обманывает ли их человек.

Работа, в которой участвовали более 19 тысяч человек, показала, что искусственный интеллект, несмотря на кажущиеся успехи в понимании человеческой речи и эмоций, всё ещё далёк от способности интерпретировать правдивость высказываний.

"Цель исследования не только в оценке возможностей ИИ, но и в предупреждении специалистов о рисках преждевременного использования больших языковых моделей для распознавания лжи", — пояснил ведущий автор, доцент кафедры коммуникации Дэвид Марковиц.

Как проводилось исследование

Учёные провели 12 экспериментов, чтобы оценить, как ИИ реагирует на человеческие высказывания в разных ситуациях. Использовалась специализированная платформа Viewpoints AI, на которой искусственному интеллекту предоставлялись аудио- и видеоматериалы с реальными участниками.

ИИ-персонажи должны были определить, говорит ли человек правду, и обосновать свой вывод. Для чистоты эксперимента варьировались:

Результаты оказались высоко зависимыми от контекста.

Когда ИИ ошибается, а когда попадает в точку

В некоторых экспериментах искусственный интеллект показывал впечатляющие результаты: до 85,8% точности при распознавании обмана в стрессовых ситуациях, например при имитации допроса. Однако в тех же условиях он с трудом определял правду - лишь в 19,5% случаев.

Это говорит о том, что ИИ склонен переоценивать вероятность лжи, в отличие от человека, который чаще исходит из предположения честности.

"Люди в большинстве случаев склонны считать других правдивыми — это эволюционный механизм, защищающий психику от постоянного напряжения. Мы сравнили эту естественную склонность с поведением ИИ", — пояснил Марковиц.

В нейтральных сценариях, таких как оценка бытовых утверждений, алгоритмы начинали действовать как люди — верить чаще, чем сомневаться, но точность при этом снижалась.

Сравнение: человек против ИИ

Параметр Человек Искусственный интеллект
Склонность к доверию Высокая Зависит от контекста
Распознавание лжи Средняя (55-60%) От 20% до 85% (нестабильно)
Распознавание правды Высокая Часто низкая
Эмоциональная чувствительность Есть Имитация без понимания
Контекстная зависимость Умеренная Очень высокая

Теория истины по умолчанию

Исследователи опирались на теорию истины по умолчанию (Truth-Default Theory), согласно которой человек эволюционно настроен доверять другим. Это снижает когнитивную нагрузку и делает коммуникацию устойчивой.

ИИ, лишённый человеческой эмпатии и опыта, не способен формировать доверие, поэтому реагирует либо чрезмерно подозрительно, либо наоборот — принимает всё за правду. В обоих случаях ошибка восприятия высока.

Ошибка → Последствие → Альтернатива

Контекст имеет значение

Одним из ключевых выводов работы стало понимание, что ИИ чрезвычайно чувствителен к контексту. Он лучше справляется с анализом напряжённых или формализованных ситуаций, но теряет точность в повседневных, эмоционально насыщенных разговорах.

"Хотя ИИ и проявил чувствительность к контексту, это никак не улучшило его общую способность к распознаванию обмана", — уточнили авторы исследования.

В целом результаты показали, что ИИ чаще ошибается, чем попадает в цель. Его реакция остаётся алгоритмической, а не когнитивной: он не понимает мотивов, а лишь оценивает статистические признаки поведения.

А что если дать ИИ "эмпатию"

Учёные обсуждают возможность внедрения эмоциональных моделей - систем, способных учитывать не только слова, но и контекст невербального поведения, микромимику и интонации. Однако пока ни одна ИИ-система не показала устойчивой способности интерпретировать обман с человеческой точностью и интуицией.

Скорее всего, путь к "распознающему ложь" ИИ лежит не через увеличение вычислительной мощности, а через приближение моделей к человеческому восприятию эмоций и доверия.

Плюсы и минусы ИИ в распознавании лжи

Плюсы Минусы
Может анализировать огромные объёмы данных Не различает эмоции и намерения
Не подвержен усталости и субъективности Зависит от контекста и формата данных
Быстро обучается на новых примерах Ошибается в реальных человеческих коммуникациях
Может быть полезен как вспомогательный инструмент Опасен при принятии юридически значимых решений

FAQ

Может ли ИИ действительно "чувствовать” ложь?
Нет. ИИ опирается на статистику и шаблоны, но не понимает мотивов или контекста человеческих эмоций.

Почему ИИ часто ошибается?
Потому что в речи ложь и правда выражаются схожими языковыми паттернами, и различить их можно только с учётом интонации, жестов и ситуации.

Используют ли ИИ для детекции лжи сейчас?
Да, но только в экспериментальных целях. В правоохранительных и юридических системах такие методы не признаны надёжными.

Мифы и правда

Интересные факты

• Средняя точность человека в распознавании лжи — около 54%, то есть лишь немного выше случайного угадывания.
• Психологи утверждают, что эмпатия и контекст - главные инструменты в распознавании обмана, чего ИИ лишён.
• Некоторые стартапы уже заявляют о разработке "эмоциональных детекторов", но их эффективность пока не доказана.

Исторический контекст

Попытки автоматизировать распознавание лжи ведутся с середины XX века — от полиграфов до современных видеонейросетей. Но даже классический "детектор лжи" не признан научно надёжным. Теперь исследователи проверяют, сможет ли ИИ преодолеть ограничения человека, не утратив при этом этической и когнитивной точности. Пока ответ отрицательный: машины ещё не научились понимать правду так, как это делает человек.