Робот
Робот
Виктория Орлова Опубликована 25.11.2025 в 19:10

Последним смеётся человек: как большие языковые модели провалили тест, с которым справится даже ребёнок

ИИ не понимает шуток, показало исследование — учёный Камачо-Кольядос

Искусственный интеллект снова оказался в центре научных споров — на этот раз из-за юмора. Новое исследование показало, что большие языковые модели (LLM), несмотря на кажущееся понимание шуток, на самом деле не улавливают сути каламбуров - игры слов, основанной на двойных смыслах и звуковых ассоциациях.

Когда ИИ пытается шутить

Работа, представленная на конференции по эмпирическим методам обработки естественного языка (EMNLP-2025), проанализировала, как современные языковые модели реагируют на парономазию — один из самых сложных видов комического. Ранее считалось, что ИИ способен "понимать" каламбуры почти как человек, но новое исследование разрушило этот миф.

"Наше исследование, пожалуй, впервые наглядно показало, насколько хрупко понимание юмора у больших языковых моделей. Это удивительно, учитывая их растущие возможности", — пояснил профессор Хосе Камачо-Кольядос из Школы компьютерных наук и информатики Кардиффского университета.

По его словам, модели часто ошибочно определяют фразу как смешную, даже если в ней отсутствует комический подтекст. Например, ИИ считает забавным шаблон "Старые X не умирают, они просто X", хотя нередко такая структура не несёт никакого смысла.

Как проверяли искусственный интеллект

Команда из Кардиффского университета усовершенствовала существующие наборы данных, добавив новые примеры реальных и ложных каламбуров. Моделям предлагали классические шутки, например: "Штирлиц открыл окно — дуло". А затем подменяли ключевое слово, создавая бессмыслицу вроде: "Штирлиц открыл окно — ствол".

Результат оказался показателен: точность различения настоящих и псевдокаламбуров резко падала, а модели демонстрировали чрезмерную уверенность в своих ошибках.

"Когда модели сталкиваются с незнакомыми каламбурами, их успех может снижаться до 20% — хуже, чем при случайном угадывании", — отметил соавтор исследования Мохаммад Тахер Пилехвар.

Что не так с юмором машин

Анализ показал, что ИИ ориентируется на поверхностные признаки текста - фонетику и структуру предложения — вместо контекста и смысла. Он способен распознавать знакомые шаблоны, но не улавливает их смысловую игру. Поэтому модели часто принимают случайные совпадения за комический эффект.

Исследователи заключили, что за "чувством юмора" ИИ скрывается иллюзия понимания, порождённая обучением на огромных массивах текстов, где встречаются шаблонные шутки и мемы. Но без способности к рефлексии и интуитивному восприятию комического результат остаётся механическим.

Сравнение: человек против LLM

Критерий

Человек

Большая языковая модель

Понимание контекста

Основано на опыте, ассоциациях и культуре

Опирается на шаблоны из обучающих данных

Распознавание двойных смыслов

Гибкое, с учётом ситуации

Часто формальное, без семантической глубины

Эмоциональная реакция

Связана с эмпатией и неожиданностью

Отсутствует

Творческая импровизация

Возможна

Ограничена статистическими связями

Ошибки восприятия

Редки

Систематические при смене контекста

Ошибка → Последствие → Альтернатива

  • Считать, что ИИ "понимает" юмор → переоценка его когнитивных способностей → признание ограничений моделей.
  • Использовать LLM для анализа шуток → искажённые выводы → создание новых наборов данных с культурными контекстами.
  • Интерпретировать уверенность модели как интеллект → неверная оценка — → обучение систем самопроверке и "осознанию незнания".

А что если научить ИИ смеяться?

Учёные признают, что создание моделей, способных действительно понимать юмор, — одна из самых сложных задач. Для этого потребуется не просто лингвистическая база, а механизм внутреннего осмысления, объединяющий языковые, культурные и эмоциональные факторы. Такие разработки уже ведутся, но пока "последним смеётся человек".

Плюсы и минусы открытий

Плюсы

Минусы

Доказано, что LLM не обладают настоящим чувством юмора

Снижается доверие к "интеллектуальности" ИИ

Подчёркнуты ограничения машинного творчества

Нужны новые подходы к обучению моделей

Получены улучшенные датасеты для анализа речи

Понимание юмора остаётся вне досягаемости

Уточнены границы применения ИИ в гуманитарных задачах

Риск излишнего скепсиса к технологиям

FAQ

Что такое парономазия?
Это игра слов, основанная на сходстве звучания или многозначности — основа каламбуров.

Почему ИИ не справляется с шутками?
Он анализирует структуру текста, но не понимает культурных контекстов и ассоциаций, которые делают фразу смешной.

Можно ли научить модель понимать юмор?
Теоретически да, если объединить языковые алгоритмы с элементами эмоционального моделирования и саморефлексии, но это пока задача будущего.

Мифы и правда

  • Миф: большие языковые модели понимают юмор.
    Правда: они имитируют понимание, используя статистические совпадения.
  • Миф: если модель смеётся, она осознаёт шутку.
    Правда: это просто сгенерированный ответ без эмоциональной реакции.
  • Миф: ИИ сможет заменить комиков.
    Правда: пока он не способен создавать подлинно оригинальные шутки.

Три интересных факта

  1. Некоторые LLM считают "смешными" даже случайные сочетания слов, если они фонетически похожи.
  2. Ошибки чаще встречаются при переводе каламбуров — модели теряют игру значений.
  3. Учёные планируют использовать результаты, чтобы разрабатывать системы, способные распознавать свои когнитивные ограничения.

Исторический контекст

  1. 2010-е — первые эксперименты с генерацией шуток на основе шаблонов.
  2. 2020-е — развитие LLM, способных имитировать разговорный юмор.
  3. 2025 год — исследование Кардиффского университета впервые доказало отсутствие реального понимания каламбуров у ИИ.

Исследование Кардиффского университета стало напоминанием: даже самые продвинутые языковые модели всё ещё опираются на память, а не на осмысление. Их "юмор" — лишь отражение человеческих текстов, а не искра настоящего творчества.

Автор Виктория Орлова
Виктория Орлова — учёный, астрофизик и обозреватель Ecosever, специалист по космическому излучению и популяризации науки.
Редактор Светлана Ёлкина
Редактор "Экосевера", эксперт по региональной аналитике, историк по образованию и профессиональный литератор. Член СЖР. Более 15 лет исследует социальные и экологические процессы, работая на стыке документалистики и психологии.

Подписывайтесь на Экосевер

Читайте также

Моторное масло для нашего слуха: от чего на самом деле возникают серные пробки вчера в 7:50

Внутренняя среда слухового канала скрывает сложный биохимический механизм, который работает как мощный фильтр и смазка для защиты головы от внешних угроз.

Читать полностью »
На границе Солнечной системы притаился невидимка: аномалии в поясе Койпера выдали его 12.03.2026 в 13:45

Раскрыта тайна аномалии в поясе Койпера: гравитационный след указывает на существование планеты У. Узнайте, как невидимый объект управляет окраинами системы.

Читать полностью »
Космическая экспансия на паузе: семь подобных Земле планет оказались бы ловушкой для колонистов 12.03.2026 в 11:34

Ученые пересмотрели критерии выживания цивилизаций, добавив в уравнение гравитационные ловушки и смертоносные лучи, которые меняют карту достижимых миров.

Читать полностью »
Зима капитулирует без боя: необычные температуры в центральных регионах бьют рекорды десятилетий 11.03.2026 в 18:57

Внезапная смена воздушных масс привела к температурному рекорду, который заставил экосистемы центрального региона пробудиться в несвойственном для сезона темпе.

Читать полностью »
Цифровая броня превращается в решето: этим бездействием вы открываете свой ПК хакерам 11.03.2026 в 15:31

Дыры в защите популярных операционных систем сравнивают с дефектами в кристаллах, которые приводят к внезапному краху всей цифровой структуры при взломе.

Читать полностью »
Она не злится, она ревнует: эти тенденции в поведении собаки могут закончиться плохо 11.03.2026 в 14:20

Кинолог Константин Карапетьянц объяснил EcoSever что делать, если собака агрессивно реагирует на домочадцев.

Читать полностью »
Семейное наследство, от которого лучше отказаться: почему люди ждут беду от поколения к поколению 11.03.2026 в 13:17

Стремление предвидеть худший сценарий имеет глубокие биологические корни и тесно связано с особенностями работы некоторых отделов нашей нервной системы.

Читать полностью »
Утренний кофе бессилен против ДНК: рождённый совой не станет жаворонком 11.03.2026 в 9:03

Попытки насильно изменить привычный график сна разбиваются о генетические барьеры, однако существуют способы облегчить утреннее пробуждение без ущерба для мозга.

Читать полностью »