Может ли искусственный интеллект распознать ложь? Учёные получили тревожный ответ
Может ли искусственный интеллект отличить ложь от правды? Этот вопрос волнует не только инженеров и психологов, но и специалистов по этике, безопасности и коммуникации. Новое масштабное исследование, проведённое учёными из Мичиганского государственного университета и Университета Оклахомы, даёт однозначный ответ: современные генеративные ИИ-модели пока не способны надёжно определять, обманывает ли их человек.
Работа, в которой участвовали более 19 тысяч человек, показала, что искусственный интеллект, несмотря на кажущиеся успехи в понимании человеческой речи и эмоций, всё ещё далёк от способности интерпретировать правдивость высказываний.
"Цель исследования не только в оценке возможностей ИИ, но и в предупреждении специалистов о рисках преждевременного использования больших языковых моделей для распознавания лжи", — пояснил ведущий автор, доцент кафедры коммуникации Дэвид Марковиц.
Как проводилось исследование
Учёные провели 12 экспериментов, чтобы оценить, как ИИ реагирует на человеческие высказывания в разных ситуациях. Использовалась специализированная платформа Viewpoints AI, на которой искусственному интеллекту предоставлялись аудио- и видеоматериалы с реальными участниками.
ИИ-персонажи должны были определить, говорит ли человек правду, и обосновать свой вывод. Для чистоты эксперимента варьировались:
-
тип медиа (видео, аудио, текст);
-
эмоциональный фон и контекст (допрос, личный разговор, рассказ о знакомых);
-
доля ложных и правдивых утверждений;
-
параметры поведения самого ИИ.
Результаты оказались высоко зависимыми от контекста.
Когда ИИ ошибается, а когда попадает в точку
В некоторых экспериментах искусственный интеллект показывал впечатляющие результаты: до 85,8% точности при распознавании обмана в стрессовых ситуациях, например при имитации допроса. Однако в тех же условиях он с трудом определял правду - лишь в 19,5% случаев.
Это говорит о том, что ИИ склонен переоценивать вероятность лжи, в отличие от человека, который чаще исходит из предположения честности.
"Люди в большинстве случаев склонны считать других правдивыми — это эволюционный механизм, защищающий психику от постоянного напряжения. Мы сравнили эту естественную склонность с поведением ИИ", — пояснил Марковиц.
В нейтральных сценариях, таких как оценка бытовых утверждений, алгоритмы начинали действовать как люди — верить чаще, чем сомневаться, но точность при этом снижалась.
Сравнение: человек против ИИ
| Параметр | Человек | Искусственный интеллект |
| Склонность к доверию | Высокая | Зависит от контекста |
| Распознавание лжи | Средняя (55-60%) | От 20% до 85% (нестабильно) |
| Распознавание правды | Высокая | Часто низкая |
| Эмоциональная чувствительность | Есть | Имитация без понимания |
| Контекстная зависимость | Умеренная | Очень высокая |
Теория истины по умолчанию
Исследователи опирались на теорию истины по умолчанию (Truth-Default Theory), согласно которой человек эволюционно настроен доверять другим. Это снижает когнитивную нагрузку и делает коммуникацию устойчивой.
ИИ, лишённый человеческой эмпатии и опыта, не способен формировать доверие, поэтому реагирует либо чрезмерно подозрительно, либо наоборот — принимает всё за правду. В обоих случаях ошибка восприятия высока.
Ошибка → Последствие → Альтернатива
-
Ошибка: доверять ИИ в вопросах обнаружения лжи.
Последствие: риск ложных обвинений или неверной интерпретации поведения.
Альтернатива: использовать ИИ как вспомогательный инструмент, а не как конечный арбитр. -
Ошибка: считать, что обучение на больших данных решит проблему.
Последствие: воспроизведение предвзятостей и эмоциональных искажений.
Альтернатива: включать междисциплинарные подходы — психолингвистику, социологию, нейронауку. -
Ошибка: использовать ИИ в следственных экспериментах без верификации.
Последствие: нарушения этики и возможные судебные ошибки.
Альтернатива: тестирование под контролем специалистов по поведению и коммуникации.
Контекст имеет значение
Одним из ключевых выводов работы стало понимание, что ИИ чрезвычайно чувствителен к контексту. Он лучше справляется с анализом напряжённых или формализованных ситуаций, но теряет точность в повседневных, эмоционально насыщенных разговорах.
"Хотя ИИ и проявил чувствительность к контексту, это никак не улучшило его общую способность к распознаванию обмана", — уточнили авторы исследования.
В целом результаты показали, что ИИ чаще ошибается, чем попадает в цель. Его реакция остаётся алгоритмической, а не когнитивной: он не понимает мотивов, а лишь оценивает статистические признаки поведения.
А что если дать ИИ "эмпатию"
Учёные обсуждают возможность внедрения эмоциональных моделей - систем, способных учитывать не только слова, но и контекст невербального поведения, микромимику и интонации. Однако пока ни одна ИИ-система не показала устойчивой способности интерпретировать обман с человеческой точностью и интуицией.
Скорее всего, путь к "распознающему ложь" ИИ лежит не через увеличение вычислительной мощности, а через приближение моделей к человеческому восприятию эмоций и доверия.
Плюсы и минусы ИИ в распознавании лжи
| Плюсы | Минусы |
| Может анализировать огромные объёмы данных | Не различает эмоции и намерения |
| Не подвержен усталости и субъективности | Зависит от контекста и формата данных |
| Быстро обучается на новых примерах | Ошибается в реальных человеческих коммуникациях |
| Может быть полезен как вспомогательный инструмент | Опасен при принятии юридически значимых решений |
FAQ
Может ли ИИ действительно "чувствовать” ложь?
Нет. ИИ опирается на статистику и шаблоны, но не понимает мотивов или контекста человеческих эмоций.
Почему ИИ часто ошибается?
Потому что в речи ложь и правда выражаются схожими языковыми паттернами, и различить их можно только с учётом интонации, жестов и ситуации.
Используют ли ИИ для детекции лжи сейчас?
Да, но только в экспериментальных целях. В правоохранительных и юридических системах такие методы не признаны надёжными.
Мифы и правда
-
Миф: "ИИ способен определять ложь лучше человека".
Правда: точность ИИ сильно варьируется и часто уступает человеческой. -
Миф: "Больше данных — меньше ошибок".
Правда: качество данных важнее объёма, иначе алгоритм лишь повторяет ошибки. -
Миф: "ИИ нейтрален и беспристрастен".
Правда: модели наследуют предвзятости, присутствующие в обучающих выборках.
Интересные факты
• Средняя точность человека в распознавании лжи — около 54%, то есть лишь немного выше случайного угадывания.
• Психологи утверждают, что эмпатия и контекст - главные инструменты в распознавании обмана, чего ИИ лишён.
• Некоторые стартапы уже заявляют о разработке "эмоциональных детекторов", но их эффективность пока не доказана.
Исторический контекст
Попытки автоматизировать распознавание лжи ведутся с середины XX века — от полиграфов до современных видеонейросетей. Но даже классический "детектор лжи" не признан научно надёжным. Теперь исследователи проверяют, сможет ли ИИ преодолеть ограничения человека, не утратив при этом этической и когнитивной точности. Пока ответ отрицательный: машины ещё не научились понимать правду так, как это делает человек.
Подписывайтесь на Экосевер