Врет как ИИ: учёные подсчитали количество неверных ответов от нейросетей — и схватились за голову
Искусственный интеллект всё активнее используется для создания и поиска новостей, но его точность вызывает тревогу. Международное исследование Европейского вещательного союза (EBU) при участии BBC и 22 общественных медиакомпаний из 18 стран показало: почти в половине случаев чат-боты и генеративные системы ошибаются.
"Эти недостатки носят системный и многоязычный характер. Когда люди перестают понимать, чему можно верить, они в итоге не доверяют ничему — а это прямая угроза достоверной информации", — отметил медиа-директор Жан-Филип де Тендер (EBU).
Как проверяли ИИ
Команда исследователей проанализировала более 3000 ответов от четырёх популярных чат-ботов — ChatGPT, Copilot, Gemini и Perplexity. Эксперты-журналисты оценивали их по четырём критериям:
- Точность фактов - отсутствие ошибок и выдуманных деталей.
- Корректность источников - наличие проверяемых ссылок и достоверных цитат.
- Разделение фактов и мнений - нейтральность и отсутствие оценочных суждений.
- Контекст - полнота и уместность объяснений.
Результаты оказались тревожными: в 45% случаев у ответов была выявлена хотя бы одна серьёзная проблема.
Где чаще всего ошибается ИИ
|
Тип ошибки |
Процент ответов |
Пример проблемы |
|
Отсутствие или неправильная ссылка на источник |
31% |
Указаны вымышленные медиа или несуществующие цитаты |
|
Фактические неточности |
20% |
Устаревшие данные, искажённые цифры, выдуманные события |
|
Смещение контекста и неверная интерпретация |
17% |
ИИ подменяет смысл оригинального материала |
|
Смешение фактов и личных суждений |
12% |
Добавление комментариев от имени "автора" или эмоциональных оценок |
Кто ошибается чаще
Наихудшие результаты показала система Gemini от Google - ошибки нашли в 76% ответов, что более чем в два раза превышает средний показатель других моделей. У ChatGPT и Copilot уровень неточностей оказался ближе к 35-40%, а Perplexity показал лучшие результаты в части корректного указания источников.
Эксперты отмечают: основной проблемой остаётся галлюцинация ИИ - склонность "додумывать" информацию, когда модель не уверена в ответе. Особенно часто это происходит при запросах на иностранные языки или при темах с низкой представленностью данных.
"Мы вдохновлены возможностями ИИ, но доверие аудитории — ключевое. Несмотря на улучшения, проблемы остаются серьёзными", — подчеркнул директор программы BBC "Генеративный ИИ" Питер Арчер.
Почему это важно
По данным Reuters Institute (2025), уже 7% интернет-пользователей получают новости через ИИ-помощников, а среди молодёжи младше 25 лет этот показатель достигает 15-20%. Это означает, что миллионы людей формируют представления о мире на основе текстов, созданных алгоритмами — часто без проверки фактов и источников.
Исследователи предупреждают: если пользователи не смогут отличить правду от ошибок ИИ, общественное доверие к информации в целом резко снизится.
Советы шаг за шагом: как критически оценивать ответы ИИ
- Проверяйте первоисточник. Настоящая ссылка должна вести на конкретную публикацию, а не на общий сайт.
- Сравнивайте несколько источников. Сопоставляйте данные с авторитетными СМИ и научными базами.
- Будьте осторожны с категоричными заявлениями. Фразы вроде "доказано", "установлено" или "все эксперты согласны" требуют проверки.
- Смотрите на дату. ИИ часто использует устаревшие данные, особенно в быстро меняющихся темах.
- Не воспринимайте ИИ как журналиста. Это инструмент, а не источник истины.
Ошибка → Последствие → Альтернатива
- Ошибка: безоговорочно доверять ответам ИИ.
Последствие: распространение ложной информации.
Альтернатива: использовать ИИ как помощника для поиска, но не как финальный источник. - Ошибка: не проверять указанные ссылки.
Последствие: цитирование фейковых данных.
Альтернатива: открывать все упомянутые ресурсы и искать подтверждения. - Ошибка: использовать ИИ для создания новостей без редакторской проверки.
Последствие: подрыв доверия к медиа.
Альтернатива: внедрение редакционной этики и систем фактчекинга.
А что если журналисты и ИИ будут работать вместе?
EBU и BBC уже создали набор инструментов для проверки целостности новостей в ИИ-помощниках. Этот пакет помогает разработчикам улучшать точность моделей, а пользователям — определять, насколько надёжным является ответ. Методика сосредоточена на двух вопросах:
- что делает ответ ИИ качественным;
- какие ошибки нужно устранять прежде, чем публиковать материал.
Кроме того, организации обратились к регуляторам ЕС с предложением внедрить постоянный независимый мониторинг генеративных систем и включить проверки достоверности в стандарты Закона о цифровых услугах (DSA).
Плюсы и минусы исследования
|
Плюсы |
Минусы |
|
Охватывает 18 стран и четыре крупнейшие ИИ-системы |
Оценка частично субъективна (журналисты могут различаться в суждениях) |
|
Включает реальные запросы пользователей |
Результаты быстро устаревают из-за постоянных обновлений моделей |
|
Даёт основу для стандартов качества ИИ-контента |
Не охватывает малоязычные и специализированные модели |
FAQ
Почему именно ИИ стал проблемой для новостей?
Потому что он отвечает уверенно даже тогда, когда ошибается, создавая иллюзию достоверности.
Что значит "ошибки в 45% случаев”?
В почти половине ответов содержались либо неверные факты, либо ложные источники, либо искажения контекста.
Как пользователю проверить правдивость новости от ИИ?
Сопоставить с несколькими надёжными медиа и обратить внимание на ссылки и даты.
Заменит ли ИИ журналистов?
В ближайшее время — нет. Он может помогать собирать данные, но без редакторов точность останется низкой.
Мифы и правда
Миф: ИИ знает всё.
Правда: модели обучаются на прошлых данных и не обладают актуальной информацией.
Миф: ИИ объективен.
Правда: его ответы зависят от источников, на которых он обучался, и от запросов пользователя.
Миф: ошибки — временные.
Правда: даже при обновлениях модели склонны повторять неточности, если их не исправлять вручную.
Интересные факты
- 60% пользователей не проверяют информацию, полученную от ИИ, считая её априори верной.
- В многоязычных тестах уровень ошибок возрастал в 1,5 раза.
- ChatGPT чаще всех указывал источники, но не всегда корректные.
Исторический контекст
- 2023 год. BBC впервые тестирует точность генеративных моделей в новостях.
- 2024 год. Появляются первые протоколы проверки достоверности ИИ-контента.
- 2025 год. EBU публикует отчёт о системных ошибках чат-ботов и призывает к регулированию отрасли.
ИИ уже стал новым посредником между новостями и читателями. Но чтобы технологии действительно служили обществу, а не искажали реальность, человечеству придётся научиться не просто пользоваться ИИ — а критически читать его ответы.
Подписывайтесь на Экосевер