Машины убедили нас в гениальности: как ИИ незаметно перепрошил самоуверенность
Когда-то эффект Даннинга-Крюгера считался наглядным примером человеческой самоуверенности: те, кто знает меньше, склонны переоценивать себя, а те, кто разбирается больше, наоборот, сомневаются в собственных силах. Но теперь, с развитием искусственного интеллекта, эта привычная кривая уверенности буквально выпрямляется. Люди, обращаясь к чат-ботам и генеративным системам, начинают чувствовать себя одинаково компетентными, независимо от уровня знаний. Об этом сообщает издание Live Science со ссылкой на исследование учёных из Университета Аалто (Финляндия) и их коллег из Германии и Канады.
Как ИИ меняет восприятие собственных способностей
Психологи давно отмечают, что при самооценке большинство людей ошибается. Менее опытные часто считают себя умелыми, а эксперты — недооценивают уровень своей компетенции. Однако эксперименты финских учёных показали, что взаимодействие с ИИ почти устраняет это различие. Исследователи заметили, что при решении задач с помощью чат-ботов, например ChatGPT, пользователи любого уровня подготовки одинаково переоценивают свои успехи. Более того, наиболее опытные участники — те, кто чаще использует ИИ, — оказывались самыми уверенными в правильности полученного ответа.
"Наши результаты демонстрируют, что люди испытывают серьёзные трудности с точной самооценкой при работе с ИИ", — отметил соавтор исследования, специалист по вычислительной психологии Робин Вельш из Университета Аалто.
Результаты были опубликованы в февральском выпуске журнала Computers in Human Behavior за 2026 год. Эксперимент охватил 500 участников, которым предложили логические задачи из теста LSAT, используемого для поступления в американские юридические школы. Половина решала задания с помощью ChatGPT, а другая — самостоятельно. После этого участники оценивали собственные результаты и уровень "грамотности" при использовании ИИ. Тем, кто правильно определял свой успех, обещали дополнительное вознаграждение.
Почему мы переоцениваем себя, используя ИИ
Учёные объясняют феномен тем, что пользователи склонны доверять первому ответу, который выдаёт система, не перепроверяя результат. Этот процесс Вельш назвал "когнитивной разгрузкой": человек передаёт часть мышления машине и снижает уровень критического анализа. В результате снижается метакогнитивный контроль — способность осознавать и корректировать собственные рассуждения. Отсюда — ощущение уверенности без реального понимания точности ответа.
"Чем меньше мы вовлекаем собственное мышление, тем слабее работаем с обратной связью и критикой", — говорится в публикации исследовательской группы.
С распространением больших языковых моделей (LLM) эффект усиливается: даже люди с высоким уровнем интеллекта начинают переоценивать свои возможности, потому что искусственный интеллект помогает всем показывать немного лучшие результаты. Разрыв между сильными и слабыми участниками сокращается, но при этом растёт общее ощущение компетентности — иллюзия, что мы стали умнее.
Возможные последствия и пути решения
Учёные предупреждают, что подобная тенденция может иметь долгосрочные последствия. Если пользователи перестанут проверять результаты и критически осмыслять ответы ИИ, это приведёт к снижению метакогнитивной точности. Человек будет полагаться на алгоритм, теряя способность отличать достоверную информацию от ошибки. Со временем это может обернуться падением качества анализа и принятием неверных решений.
Чтобы предотвратить подобный эффект, исследователи предлагают сделать сами системы искусственного интеллекта инструментом обучения критическому мышлению. Модель может побуждать пользователя сомневаться и задавать уточняющие вопросы: "насколько вы уверены в этом ответе?" или "что могло быть упущено?". Такой подход вернёт элемент саморефлексии в диалог с машиной.
"Мы предлагаем пересмотреть принципы проектирования интерактивных ИИ-систем так, чтобы они способствовали осмыслению и самостоятельной оценке действий пользователя", — отмечают авторы исследования.
Критическое мышление как новая цифровая грамотность
По мнению специалистов, способность анализировать работу алгоритмов становится не менее важной, чем технические навыки. К аналогичному выводу недавно пришло и Королевское общество Великобритании, подчеркнув, что обучение искусственному интеллекту должно включать развитие критического мышления. Похожие вопросы поднимались и в других исследованиях, например в работе о том, как поведение людей к ИИ зависит от его гендерных характеристик. Если этого не произойдёт, общество рискует получить поколение пользователей, уверенных в своей непогрешимости, но не способных распознать ошибку машины.
В конечном счёте, исследование Аалто показывает: чем сильнее мы полагаемся на ИИ, тем больше нуждаемся в навыке сомневаться. Только сочетание технической грамотности и саморефлексии позволит сохранить способность мыслить независимо — даже в эпоху умных алгоритмов.
Подписывайтесь на Экосевер