Робот
Робот
Андрей Лазарев Опубликована 29.10.2025 в 18:17

Врет как ИИ: учёные подсчитали количество неверных ответов от нейросетей — и схватились за голову

Искусственный интеллект всё активнее используется для создания и поиска новостей, но его точность вызывает тревогу. Международное исследование Европейского вещательного союза (EBU) при участии BBC и 22 общественных медиакомпаний из 18 стран показало: почти в половине случаев чат-боты и генеративные системы ошибаются.

"Эти недостатки носят системный и многоязычный характер. Когда люди перестают понимать, чему можно верить, они в итоге не доверяют ничему — а это прямая угроза достоверной информации", — отметил медиа-директор Жан-Филип де Тендер (EBU).

Как проверяли ИИ

Команда исследователей проанализировала более 3000 ответов от четырёх популярных чат-ботов — ChatGPT, Copilot, Gemini и Perplexity. Эксперты-журналисты оценивали их по четырём критериям:

  1. Точность фактов - отсутствие ошибок и выдуманных деталей.
  2. Корректность источников - наличие проверяемых ссылок и достоверных цитат.
  3. Разделение фактов и мнений - нейтральность и отсутствие оценочных суждений.
  4. Контекст - полнота и уместность объяснений.

Результаты оказались тревожными: в 45% случаев у ответов была выявлена хотя бы одна серьёзная проблема.

Где чаще всего ошибается ИИ

Тип ошибки

Процент ответов

Пример проблемы

Отсутствие или неправильная ссылка на источник

31%

Указаны вымышленные медиа или несуществующие цитаты

Фактические неточности

20%

Устаревшие данные, искажённые цифры, выдуманные события

Смещение контекста и неверная интерпретация

17%

ИИ подменяет смысл оригинального материала

Смешение фактов и личных суждений

12%

Добавление комментариев от имени "автора" или эмоциональных оценок

Кто ошибается чаще

Наихудшие результаты показала система Gemini от Google - ошибки нашли в 76% ответов, что более чем в два раза превышает средний показатель других моделей. У ChatGPT и Copilot уровень неточностей оказался ближе к 35-40%, а Perplexity показал лучшие результаты в части корректного указания источников.

Эксперты отмечают: основной проблемой остаётся галлюцинация ИИ - склонность "додумывать" информацию, когда модель не уверена в ответе. Особенно часто это происходит при запросах на иностранные языки или при темах с низкой представленностью данных.

"Мы вдохновлены возможностями ИИ, но доверие аудитории — ключевое. Несмотря на улучшения, проблемы остаются серьёзными", — подчеркнул директор программы BBC "Генеративный ИИ" Питер Арчер.

Почему это важно

По данным Reuters Institute (2025), уже 7% интернет-пользователей получают новости через ИИ-помощников, а среди молодёжи младше 25 лет этот показатель достигает 15-20%. Это означает, что миллионы людей формируют представления о мире на основе текстов, созданных алгоритмами — часто без проверки фактов и источников.

Исследователи предупреждают: если пользователи не смогут отличить правду от ошибок ИИ, общественное доверие к информации в целом резко снизится.

Советы шаг за шагом: как критически оценивать ответы ИИ

  1. Проверяйте первоисточник. Настоящая ссылка должна вести на конкретную публикацию, а не на общий сайт.
  2. Сравнивайте несколько источников. Сопоставляйте данные с авторитетными СМИ и научными базами.
  3. Будьте осторожны с категоричными заявлениями. Фразы вроде "доказано", "установлено" или "все эксперты согласны" требуют проверки.
  4. Смотрите на дату. ИИ часто использует устаревшие данные, особенно в быстро меняющихся темах.
  5. Не воспринимайте ИИ как журналиста. Это инструмент, а не источник истины.

Ошибка → Последствие → Альтернатива

  • Ошибка: безоговорочно доверять ответам ИИ.
    Последствие: распространение ложной информации.
    Альтернатива: использовать ИИ как помощника для поиска, но не как финальный источник.
  • Ошибка: не проверять указанные ссылки.
    Последствие: цитирование фейковых данных.
    Альтернатива: открывать все упомянутые ресурсы и искать подтверждения.
  • Ошибка: использовать ИИ для создания новостей без редакторской проверки.
    Последствие: подрыв доверия к медиа.
    Альтернатива: внедрение редакционной этики и систем фактчекинга.

А что если журналисты и ИИ будут работать вместе?

EBU и BBC уже создали набор инструментов для проверки целостности новостей в ИИ-помощниках. Этот пакет помогает разработчикам улучшать точность моделей, а пользователям — определять, насколько надёжным является ответ. Методика сосредоточена на двух вопросах:

  • что делает ответ ИИ качественным;
  • какие ошибки нужно устранять прежде, чем публиковать материал.

Кроме того, организации обратились к регуляторам ЕС с предложением внедрить постоянный независимый мониторинг генеративных систем и включить проверки достоверности в стандарты Закона о цифровых услугах (DSA).

Плюсы и минусы исследования

Плюсы

Минусы

Охватывает 18 стран и четыре крупнейшие ИИ-системы

Оценка частично субъективна (журналисты могут различаться в суждениях)

Включает реальные запросы пользователей

Результаты быстро устаревают из-за постоянных обновлений моделей

Даёт основу для стандартов качества ИИ-контента

Не охватывает малоязычные и специализированные модели

FAQ

Почему именно ИИ стал проблемой для новостей?
Потому что он отвечает уверенно даже тогда, когда ошибается, создавая иллюзию достоверности.

Что значит "ошибки в 45% случаев”?
В почти половине ответов содержались либо неверные факты, либо ложные источники, либо искажения контекста.

Как пользователю проверить правдивость новости от ИИ?
Сопоставить с несколькими надёжными медиа и обратить внимание на ссылки и даты.

Заменит ли ИИ журналистов?
В ближайшее время — нет. Он может помогать собирать данные, но без редакторов точность останется низкой.

Мифы и правда

Миф: ИИ знает всё.
Правда: модели обучаются на прошлых данных и не обладают актуальной информацией.

Миф: ИИ объективен.
Правда: его ответы зависят от источников, на которых он обучался, и от запросов пользователя.

Миф: ошибки — временные.
Правда: даже при обновлениях модели склонны повторять неточности, если их не исправлять вручную.

Интересные факты

  1. 60% пользователей не проверяют информацию, полученную от ИИ, считая её априори верной.
  2. В многоязычных тестах уровень ошибок возрастал в 1,5 раза.
  3. ChatGPT чаще всех указывал источники, но не всегда корректные.

Исторический контекст

  • 2023 год. BBC впервые тестирует точность генеративных моделей в новостях.
  • 2024 год. Появляются первые протоколы проверки достоверности ИИ-контента.
  • 2025 год. EBU публикует отчёт о системных ошибках чат-ботов и призывает к регулированию отрасли.

ИИ уже стал новым посредником между новостями и читателями. Но чтобы технологии действительно служили обществу, а не искажали реальность, человечеству придётся научиться не просто пользоваться ИИ — а критически читать его ответы.

Подписывайтесь на Экосевер

Читайте также

Как встретить год Огненной Лошади, чтобы привлечь удачу — КарелИнформ 21.12.2025 в 12:38
Огненная Лошадь не терпит скуки: как украсить дом и что надеть для встречи 2026 года

Как встретить год Огненной Лошади, чтобы удача была на вашей стороне? Цвета, наряды, декор и настроение, которые помогут понравиться символу 2026 года.

Читать полностью »
2026 год станет временем быстрых решений и перемен — астролог Лайко 16.12.2025 в 14:36
2026 год перевернёт вашу жизнь: астролог рассказала, почему Год Огненной Лошади нельзя прожить по-старому

Астролог Валентина Лайко уверена: 2026 год не оставит места застою. Как воспользоваться энергией Огненной Лошади и не упустить шанс, который даст Колесо Фортуны?

Читать полностью »
Реакции мозга на экстремальные ситуации непредсказуемы — психолог Файнзильберг 15.12.2025 в 14:05
Мозг может не выбрать жизнь: что происходит с психикой в экстремальной ситуации

Психотерапевт Владимир Файнзильберг рассказал EcoSever, как работает инстинкт самосохранения у человека.

Читать полностью »
Подросток разработал сверхпрочную бумажную структуру — Business Insider 02.12.2025 в 18:22
Как заставить обычную бумагу выдержать свой 10 000-кратный вес? Юный гений из Нью-Йорка просто правильно её сложил

14-летний Майлз Ву выиграл 25 000 долларов за инженерное открытие. Ему помогли вера в себя и искусство оригами.

Читать полностью »
Византия — исчезнувшее государство, которое живо и сегодня — Русская Семёрка 02.12.2025 в 17:42
Двуглавые орлы от Рима до России: кто же на самом деле унаследовал византийскую корону

Византия — государство, которого не было на карте, но без которого не было бы Европы. Как Рим стал Константинополем и почему Россия унаследовала его дух?

Читать полностью »
Необычные манёвры 3I/ATLAS стали загадкой — Полтора Инженера 02.12.2025 в 17:30
Не комета, а космический беглец? Загадочный объект 3I/ATLAS нарушил все законы небесной механики

Межзвёздный объект 3I/ATLAS нарушил все законы движения комет. Почему его поведение больше похоже на бегство?

Читать полностью »
Байкал, Алтай и Тунгуска — центры сибирских загадок — Русская Семёрка 02.12.2025 в 16:12
Тунгусский взрыв, сияющий Байкал и Алтайский стоунхендж — загадки Сибири, которых не смогла объяснить наука

От светящейся воды Байкала до Алтайского стоунхенджа — Сибирь хранит тайны, которые не могут разгадать даже современные учёные.

Читать полностью »
Орнитолог объяснил, почему синицы нападают на слабых птиц — Pravda.Ru 02.12.2025 в 9:22
Зомби рядом с нами: орнитолог объяснил, почему синицы поедают мозг сородичей зимой

Орнитолог Вадим Мишин рассказал, как синицы выживают зимой. Слабонервным лучше не знать, на что они способы.

Читать полностью »