Искусственный интеллект всё активнее используется для создания и поиска новостей, но его точность вызывает тревогу. Международное исследование Европейского вещательного союза (EBU) при участии BBC и 22 общественных медиакомпаний из 18 стран показало: почти в половине случаев чат-боты и генеративные системы ошибаются.
"Эти недостатки носят системный и многоязычный характер. Когда люди перестают понимать, чему можно верить, они в итоге не доверяют ничему — а это прямая угроза достоверной информации", — отметил медиа-директор Жан-Филип де Тендер (EBU).
Команда исследователей проанализировала более 3000 ответов от четырёх популярных чат-ботов — ChatGPT, Copilot, Gemini и Perplexity. Эксперты-журналисты оценивали их по четырём критериям:
Результаты оказались тревожными: в 45% случаев у ответов была выявлена хотя бы одна серьёзная проблема.
|
Тип ошибки |
Процент ответов |
Пример проблемы |
|
Отсутствие или неправильная ссылка на источник |
31% |
Указаны вымышленные медиа или несуществующие цитаты |
|
Фактические неточности |
20% |
Устаревшие данные, искажённые цифры, выдуманные события |
|
Смещение контекста и неверная интерпретация |
17% |
ИИ подменяет смысл оригинального материала |
|
Смешение фактов и личных суждений |
12% |
Добавление комментариев от имени "автора" или эмоциональных оценок |
Наихудшие результаты показала система Gemini от Google - ошибки нашли в 76% ответов, что более чем в два раза превышает средний показатель других моделей. У ChatGPT и Copilot уровень неточностей оказался ближе к 35-40%, а Perplexity показал лучшие результаты в части корректного указания источников.
Эксперты отмечают: основной проблемой остаётся галлюцинация ИИ - склонность "додумывать" информацию, когда модель не уверена в ответе. Особенно часто это происходит при запросах на иностранные языки или при темах с низкой представленностью данных.
"Мы вдохновлены возможностями ИИ, но доверие аудитории — ключевое. Несмотря на улучшения, проблемы остаются серьёзными", — подчеркнул директор программы BBC "Генеративный ИИ" Питер Арчер.
По данным Reuters Institute (2025), уже 7% интернет-пользователей получают новости через ИИ-помощников, а среди молодёжи младше 25 лет этот показатель достигает 15-20%. Это означает, что миллионы людей формируют представления о мире на основе текстов, созданных алгоритмами — часто без проверки фактов и источников.
Исследователи предупреждают: если пользователи не смогут отличить правду от ошибок ИИ, общественное доверие к информации в целом резко снизится.
EBU и BBC уже создали набор инструментов для проверки целостности новостей в ИИ-помощниках. Этот пакет помогает разработчикам улучшать точность моделей, а пользователям — определять, насколько надёжным является ответ. Методика сосредоточена на двух вопросах:
Кроме того, организации обратились к регуляторам ЕС с предложением внедрить постоянный независимый мониторинг генеративных систем и включить проверки достоверности в стандарты Закона о цифровых услугах (DSA).
|
Плюсы |
Минусы |
|
Охватывает 18 стран и четыре крупнейшие ИИ-системы |
Оценка частично субъективна (журналисты могут различаться в суждениях) |
|
Включает реальные запросы пользователей |
Результаты быстро устаревают из-за постоянных обновлений моделей |
|
Даёт основу для стандартов качества ИИ-контента |
Не охватывает малоязычные и специализированные модели |
Почему именно ИИ стал проблемой для новостей?
Потому что он отвечает уверенно даже тогда, когда ошибается, создавая иллюзию достоверности.
Что значит "ошибки в 45% случаев”?
В почти половине ответов содержались либо неверные факты, либо ложные источники, либо искажения контекста.
Как пользователю проверить правдивость новости от ИИ?
Сопоставить с несколькими надёжными медиа и обратить внимание на ссылки и даты.
Заменит ли ИИ журналистов?
В ближайшее время — нет. Он может помогать собирать данные, но без редакторов точность останется низкой.
Миф: ИИ знает всё.
Правда: модели обучаются на прошлых данных и не обладают актуальной информацией.
Миф: ИИ объективен.
Правда: его ответы зависят от источников, на которых он обучался, и от запросов пользователя.
Миф: ошибки — временные.
Правда: даже при обновлениях модели склонны повторять неточности, если их не исправлять вручную.
ИИ уже стал новым посредником между новостями и читателями. Но чтобы технологии действительно служили обществу, а не искажали реальность, человечеству придётся научиться не просто пользоваться ИИ — а критически читать его ответы.