Робот
Робот
Андрей Лазарев Опубликована сегодня в 18:17

Врет как ИИ: учёные подсчитали количество неверных ответов от нейросетей — и схватились за голову

Искусственный интеллект всё активнее используется для создания и поиска новостей, но его точность вызывает тревогу. Международное исследование Европейского вещательного союза (EBU) при участии BBC и 22 общественных медиакомпаний из 18 стран показало: почти в половине случаев чат-боты и генеративные системы ошибаются.

"Эти недостатки носят системный и многоязычный характер. Когда люди перестают понимать, чему можно верить, они в итоге не доверяют ничему — а это прямая угроза достоверной информации", — отметил медиа-директор Жан-Филип де Тендер (EBU).

Как проверяли ИИ

Команда исследователей проанализировала более 3000 ответов от четырёх популярных чат-ботов — ChatGPT, Copilot, Gemini и Perplexity. Эксперты-журналисты оценивали их по четырём критериям:

  1. Точность фактов - отсутствие ошибок и выдуманных деталей.
  2. Корректность источников - наличие проверяемых ссылок и достоверных цитат.
  3. Разделение фактов и мнений - нейтральность и отсутствие оценочных суждений.
  4. Контекст - полнота и уместность объяснений.

Результаты оказались тревожными: в 45% случаев у ответов была выявлена хотя бы одна серьёзная проблема.

Где чаще всего ошибается ИИ

Тип ошибки

Процент ответов

Пример проблемы

Отсутствие или неправильная ссылка на источник

31%

Указаны вымышленные медиа или несуществующие цитаты

Фактические неточности

20%

Устаревшие данные, искажённые цифры, выдуманные события

Смещение контекста и неверная интерпретация

17%

ИИ подменяет смысл оригинального материала

Смешение фактов и личных суждений

12%

Добавление комментариев от имени "автора" или эмоциональных оценок

Кто ошибается чаще

Наихудшие результаты показала система Gemini от Google - ошибки нашли в 76% ответов, что более чем в два раза превышает средний показатель других моделей. У ChatGPT и Copilot уровень неточностей оказался ближе к 35-40%, а Perplexity показал лучшие результаты в части корректного указания источников.

Эксперты отмечают: основной проблемой остаётся галлюцинация ИИ - склонность "додумывать" информацию, когда модель не уверена в ответе. Особенно часто это происходит при запросах на иностранные языки или при темах с низкой представленностью данных.

"Мы вдохновлены возможностями ИИ, но доверие аудитории — ключевое. Несмотря на улучшения, проблемы остаются серьёзными", — подчеркнул директор программы BBC "Генеративный ИИ" Питер Арчер.

Почему это важно

По данным Reuters Institute (2025), уже 7% интернет-пользователей получают новости через ИИ-помощников, а среди молодёжи младше 25 лет этот показатель достигает 15-20%. Это означает, что миллионы людей формируют представления о мире на основе текстов, созданных алгоритмами — часто без проверки фактов и источников.

Исследователи предупреждают: если пользователи не смогут отличить правду от ошибок ИИ, общественное доверие к информации в целом резко снизится.

Советы шаг за шагом: как критически оценивать ответы ИИ

  1. Проверяйте первоисточник. Настоящая ссылка должна вести на конкретную публикацию, а не на общий сайт.
  2. Сравнивайте несколько источников. Сопоставляйте данные с авторитетными СМИ и научными базами.
  3. Будьте осторожны с категоричными заявлениями. Фразы вроде "доказано", "установлено" или "все эксперты согласны" требуют проверки.
  4. Смотрите на дату. ИИ часто использует устаревшие данные, особенно в быстро меняющихся темах.
  5. Не воспринимайте ИИ как журналиста. Это инструмент, а не источник истины.

Ошибка → Последствие → Альтернатива

  • Ошибка: безоговорочно доверять ответам ИИ.
    Последствие: распространение ложной информации.
    Альтернатива: использовать ИИ как помощника для поиска, но не как финальный источник.
  • Ошибка: не проверять указанные ссылки.
    Последствие: цитирование фейковых данных.
    Альтернатива: открывать все упомянутые ресурсы и искать подтверждения.
  • Ошибка: использовать ИИ для создания новостей без редакторской проверки.
    Последствие: подрыв доверия к медиа.
    Альтернатива: внедрение редакционной этики и систем фактчекинга.

А что если журналисты и ИИ будут работать вместе?

EBU и BBC уже создали набор инструментов для проверки целостности новостей в ИИ-помощниках. Этот пакет помогает разработчикам улучшать точность моделей, а пользователям — определять, насколько надёжным является ответ. Методика сосредоточена на двух вопросах:

  • что делает ответ ИИ качественным;
  • какие ошибки нужно устранять прежде, чем публиковать материал.

Кроме того, организации обратились к регуляторам ЕС с предложением внедрить постоянный независимый мониторинг генеративных систем и включить проверки достоверности в стандарты Закона о цифровых услугах (DSA).

Плюсы и минусы исследования

Плюсы

Минусы

Охватывает 18 стран и четыре крупнейшие ИИ-системы

Оценка частично субъективна (журналисты могут различаться в суждениях)

Включает реальные запросы пользователей

Результаты быстро устаревают из-за постоянных обновлений моделей

Даёт основу для стандартов качества ИИ-контента

Не охватывает малоязычные и специализированные модели

FAQ

Почему именно ИИ стал проблемой для новостей?
Потому что он отвечает уверенно даже тогда, когда ошибается, создавая иллюзию достоверности.

Что значит "ошибки в 45% случаев”?
В почти половине ответов содержались либо неверные факты, либо ложные источники, либо искажения контекста.

Как пользователю проверить правдивость новости от ИИ?
Сопоставить с несколькими надёжными медиа и обратить внимание на ссылки и даты.

Заменит ли ИИ журналистов?
В ближайшее время — нет. Он может помогать собирать данные, но без редакторов точность останется низкой.

Мифы и правда

Миф: ИИ знает всё.
Правда: модели обучаются на прошлых данных и не обладают актуальной информацией.

Миф: ИИ объективен.
Правда: его ответы зависят от источников, на которых он обучался, и от запросов пользователя.

Миф: ошибки — временные.
Правда: даже при обновлениях модели склонны повторять неточности, если их не исправлять вручную.

Интересные факты

  1. 60% пользователей не проверяют информацию, полученную от ИИ, считая её априори верной.
  2. В многоязычных тестах уровень ошибок возрастал в 1,5 раза.
  3. ChatGPT чаще всех указывал источники, но не всегда корректные.

Исторический контекст

  • 2023 год. BBC впервые тестирует точность генеративных моделей в новостях.
  • 2024 год. Появляются первые протоколы проверки достоверности ИИ-контента.
  • 2025 год. EBU публикует отчёт о системных ошибках чат-ботов и призывает к регулированию отрасли.

ИИ уже стал новым посредником между новостями и читателями. Но чтобы технологии действительно служили обществу, а не искажали реальность, человечеству придётся научиться не просто пользоваться ИИ — а критически читать его ответы.

Подписывайтесь на Экосевер

Читайте также

Миф о единении человека с природой развеян: как древние охотники выжигали леса и управляли ландшафтом Европы сегодня в 2:39

Учёные доказали, что природа Европы давно перестала быть "дикой". Неандертальцы и древние охотники изменяли ландшафты задолго до земледелия — узнаём, как именно.

Читать полностью »
Комары не только кусают — они могут спасти жизнь: слюна насекомых вдохновила учёных на создание новых лекарств сегодня в 0:29

Учёные выяснили, что слюна комара не так однозначна, как кажется. Как один пептид помогает вирусу обмануть иммунитет человека — и может ли он стать ключом к новым лекарствам?

Читать полностью »
Он просто включил кофеварку — и тут же на поле для гольфа приземлилось НЛО: невероятный случай в Канаде вчера в 22:58

В 1967 году житель Эдмонтона стал свидетелем странного светящегося объекта и нашёл медную пластинку с неизвестными письменами. Что это было — НЛО или мистификация?

Читать полностью »
Если ласка кажется неприятной — вам не кажется: как манипуляторы управляют партнёрами через прикосновения вчера в 20:49

Учёные выяснили, что прикосновения могут быть не проявлением нежности, а способом контроля. Как черты "тёмной триады" превращают физическую близость в манипуляцию — в нашем материале.

Читать полностью »
Запретная зона в пяти километрах от пирамид Гизы: что египетские военные скрывают под Завиет-эль-Арианом вчера в 18:32

В пяти километрах от пирамид Гизы скрыта подземная шахта, закрытая военными уже 60 лет. Почему Завиет-эль-Ариан называют "Зоной 51 Египта" — разбираемся в фактах и легендах.

Читать полностью »
Не стыдные выбросы, а ключ к здоровью кишечника: учёные объяснили, почему газы — не всегда плохо вчера в 16:23

Учёные выяснили, что водород в кишечнике — не просто побочный газ, а ключевой регулятор микробиома, влияющий на пищеварение и общее здоровье.

Читать полностью »
Путь коренных американцев начался на Хоккайдо: учёные переписали историю заселения континента вчера в 14:50

Учёные нашли доказательства того, что народы, считающиеся коренными американцами, пришли на континент по морю. Что связывает древние японские наконечники и оружие охотников Северной Америки — узнайте в материале.

Читать полностью »
Под другим углом: новая теория объясняет, как египтяне легко поднимали каменные блоки без подъёмных кранов вчера в 12:33

Учёный из Германии предложил новую теорию строительства пирамиды Хеопса — без гигантских пандусов и рабского труда. Как древние инженеры применяли физику противовесов — рассказываем.

Читать полностью »