
Названы главные признаки, по которым можно распознать ИИ в разговоре — вот что его выдаёт
За последние годы искусственный интеллект сделал огромный скачок — большие языковые модели вроде ChatGPT, Copilot или Perplexity стали частью повседневной жизни. Мы используем их, чтобы искать информацию, писать тексты, программировать или просто поболтать. Но могут ли эти системы действительно говорить, как человек? Как выяснили психологи, не совсем. Исследование, опубликованное в журнале Cognitive Science, показало: даже самые продвинутые модели всё ещё выдают себя.
Когда машины учатся болтать
Чтобы проверить, насколько реалистично языковые модели имитируют человеческое общение, группа исследователей протестировала ChatGPT-4, Claude Sonnet 3.5, Vicuna и Wayfarer. Они сравнили настоящие телефонные разговоры людей с искусственно созданными диалогами и дали их на оценку другим участникам.
Результат оказался показателен: большинство людей без труда распознают "нечеловеческий" стиль общения. Особенно когда речь идёт о длинных диалогах, где машинная речь теряет естественный ритм и нюансы.
"Большие языковые модели говорят иначе, чем люди", — объяснил психолог Лукас Бьетти из Норвежского университета естественных и технических наук.
Оказалось, что дело не только в подборе слов. Машины умеют строить грамматически правильные предложения, но не чувствуют контекста, темпа и социальной динамики разговора.
Преувеличенное подражание — главный сбой
В обычной беседе люди интуитивно подстраиваются под собеседника: повторяют слова, ритм речи, манеру выражения. Это помогает создать эмоциональный контакт и взаимопонимание. Однако у искусственного интеллекта этот процесс доведён до абсурда.
"Большие языковые модели чересчур рьяно подражают, и это преувеличенное уподобление человеческое ухо способно уловить", — отметил Бьетти.
Учёные называют это явление "преувеличенной адаптацией" - когда ИИ слишком старается звучать "по-человечески", теряя естественность.
Что может выдать искусственный разговор
Исследователи выделили несколько типичных признаков, по которым можно без труда отличить диалог ИИ от живого общения.
- Отсутствие дискурсивных маркеров. Люди часто вставляют в речь слова вроде "ну", "значит", "типа", "короче". Эти seemingly "пустые" элементы создают ощущение живости и помогают структурировать разговор. Языковые модели же используют их неестественно или вообще избегают.
- Слишком быстрый переход к сути. Человек редко начинает разговор с главного — обычно есть вступительная фраза или короткий обмен любезностями. ChatGPT и его "собратья" часто пропускают этот этап.
- Неловкие завершения. Мы привыкли завершать диалоги мягко: "ладно", "спишемся", "увидимся". ИИ же чаще просто ставит точку.
- Отсутствие ошибок и колебаний. В живой речи человек делает паузы, переспросы, поправки. Искусственный интеллект, наоборот, говорит слишком гладко, словно диктор на радио.
Все эти особенности складываются в общую картину — искусственный собеседник пока не способен полностью скрыться за человеческой маской.
Сравнение: человек против ИИ в разговоре
Параметр |
Человек |
Языковая модель |
Подражание собеседнику |
Умеренное, гибкое |
Чрезмерное, шаблонное |
Использование маркеров речи |
Естественное, ситуативное |
Механическое или отсутствует |
Переходы между темами |
Плавные, контекстные |
Резкие, прямолинейные |
Завершение диалога |
Неформальное, с социальными сигналами |
Чаще формальное или внезапное |
Ошибки и паузы |
Присутствуют, делают речь живой |
Почти отсутствуют |
Почему это важно
На первый взгляд кажется, что отличить человека от модели — это просто игра. Но на практике вопрос подлинности общения становится всё более значимым. В сфере образования, журналистики, психотерапии или клиентской поддержки важно, чтобы пользователь ощущал эмоциональный контакт. А отсутствие естественных интонаций и маркеров лишает взаимодействие "человеческого тепла".
"Современные большие языковые модели пока не способны подражать людям настолько хорошо, чтобы постоянно нас обманывать", — заявил Бьетти.
Ошибка → Последствие → Альтернатива
- Ошибка: использовать только письменные корпуса для обучения ИИ.
Последствие: отсутствие живых интонаций и социального контекста.
Альтернатива: подключение разговорных баз данных и "шумных" записей реальных диалогов. - Ошибка: игнорировать культурные различия речи.
Последствие: универсальные ответы без эмпатии.
Альтернатива: настройка моделей под конкретные языковые и культурные особенности. - Ошибка: стремление к идеальной грамматике.
Последствие: неестественность и отсутствие "человеческих огрехов".
Альтернатива: допуск лёгких неточностей, имитирующих живую речь.
А что если ИИ всё-таки научится говорить как человек?
Этот момент неизбежен. С развитием мультимодальных моделей и адаптивных систем голосового общения граница между реальным и искусственным собеседником станет почти неуловимой. Тогда встанет вопрос не "может ли ИИ нас обмануть", а "нужно ли ему это делать". Ведь возможно, цель не в маскировке, а в создании комфортного, честного взаимодействия человека и машины.
Плюсы и минусы "очеловечивания" ИИ
Плюсы |
Минусы |
Улучшает пользовательский опыт |
Может ввести в заблуждение |
Способствует эмоциональной вовлечённости |
Этические риски при подделке личности |
Делает технологии доступнее |
Потеря прозрачности работы ИИ |
FAQ
Почему ИИ сложно подражать людям?
Потому что человеческая речь многослойна: в ней есть эмоции, намерения, невербальные сигналы и культурные оттенки, которые трудно формализовать.
Можно ли полностью обмануть человека текстом?
Иногда — да, особенно на коротких отрывках. Но в длинном общении несоответствия всё равно проявляются.
Станет ли ИИ когда-нибудь неотличим от человека?
Вероятно, да. Вопрос только в том, захотим ли мы сами этого, ведь идеальная имитация стирает границу между общением и иллюзией.
Мифы и правда
- Миф: ChatGPT уже говорит как человек.
Правда: он строит речь грамматически правильно, но без человеческих нюансов. - Миф: люди легко обманываются.
Правда: мы очень чувствительны к неестественным интонациям и структуре речи. - Миф: совершенная имитация речи безопасна.
Правда: она несёт риски — от фейковых новостей до подделки личности.
3 интересных факта
- Средний человек использует около 150 дискурсивных маркеров в день — искусственный интеллект пока не способен воспроизвести такую вариативность.
- У ИИ нет "социальной памяти", поэтому он не способен на спонтанное повторение слов, свойственное людям.
- Первые модели, обученные на аудиозаписях разговоров, уже демонстрируют прогресс в имитации "человеческих пауз".
Итак, искусственный интеллект всё ближе к тому, чтобы заговорить по-человечески, но пока ещё слишком правильный, слишком старается и именно этим себя выдаёт. Возможно, чтобы стать по-настоящему "живым", ему придётся научиться ошибаться — как мы.
Подписывайтесь на Экосевер