ИИ и человек
ИИ и человек
Виктория Орлова Опубликована сегодня в 21:10

Машины убедили нас в гениальности: как ИИ незаметно перепрошил самоуверенность

Использование ИИ вызвало переоценку способностей у людей — Университет Аалто

Когда-то эффект Даннинга-Крюгера считался наглядным примером человеческой самоуверенности: те, кто знает меньше, склонны переоценивать себя, а те, кто разбирается больше, наоборот, сомневаются в собственных силах. Но теперь, с развитием искусственного интеллекта, эта привычная кривая уверенности буквально выпрямляется. Люди, обращаясь к чат-ботам и генеративным системам, начинают чувствовать себя одинаково компетентными, независимо от уровня знаний. Об этом сообщает издание Live Science со ссылкой на исследование учёных из Университета Аалто (Финляндия) и их коллег из Германии и Канады.

Как ИИ меняет восприятие собственных способностей

Психологи давно отмечают, что при самооценке большинство людей ошибается. Менее опытные часто считают себя умелыми, а эксперты — недооценивают уровень своей компетенции. Однако эксперименты финских учёных показали, что взаимодействие с ИИ почти устраняет это различие. Исследователи заметили, что при решении задач с помощью чат-ботов, например ChatGPT, пользователи любого уровня подготовки одинаково переоценивают свои успехи. Более того, наиболее опытные участники — те, кто чаще использует ИИ, — оказывались самыми уверенными в правильности полученного ответа.

"Наши результаты демонстрируют, что люди испытывают серьёзные трудности с точной самооценкой при работе с ИИ", — отметил соавтор исследования, специалист по вычислительной психологии Робин Вельш из Университета Аалто.

Результаты были опубликованы в февральском выпуске журнала Computers in Human Behavior за 2026 год. Эксперимент охватил 500 участников, которым предложили логические задачи из теста LSAT, используемого для поступления в американские юридические школы. Половина решала задания с помощью ChatGPT, а другая — самостоятельно. После этого участники оценивали собственные результаты и уровень "грамотности" при использовании ИИ. Тем, кто правильно определял свой успех, обещали дополнительное вознаграждение.

Почему мы переоцениваем себя, используя ИИ

Учёные объясняют феномен тем, что пользователи склонны доверять первому ответу, который выдаёт система, не перепроверяя результат. Этот процесс Вельш назвал "когнитивной разгрузкой": человек передаёт часть мышления машине и снижает уровень критического анализа. В результате снижается метакогнитивный контроль — способность осознавать и корректировать собственные рассуждения. Отсюда — ощущение уверенности без реального понимания точности ответа.

"Чем меньше мы вовлекаем собственное мышление, тем слабее работаем с обратной связью и критикой", — говорится в публикации исследовательской группы.

С распространением больших языковых моделей (LLM) эффект усиливается: даже люди с высоким уровнем интеллекта начинают переоценивать свои возможности, потому что искусственный интеллект помогает всем показывать немного лучшие результаты. Разрыв между сильными и слабыми участниками сокращается, но при этом растёт общее ощущение компетентности — иллюзия, что мы стали умнее.

Возможные последствия и пути решения

Учёные предупреждают, что подобная тенденция может иметь долгосрочные последствия. Если пользователи перестанут проверять результаты и критически осмыслять ответы ИИ, это приведёт к снижению метакогнитивной точности. Человек будет полагаться на алгоритм, теряя способность отличать достоверную информацию от ошибки. Со временем это может обернуться падением качества анализа и принятием неверных решений.

Чтобы предотвратить подобный эффект, исследователи предлагают сделать сами системы искусственного интеллекта инструментом обучения критическому мышлению. Модель может побуждать пользователя сомневаться и задавать уточняющие вопросы: "насколько вы уверены в этом ответе?" или "что могло быть упущено?". Такой подход вернёт элемент саморефлексии в диалог с машиной.

"Мы предлагаем пересмотреть принципы проектирования интерактивных ИИ-систем так, чтобы они способствовали осмыслению и самостоятельной оценке действий пользователя", — отмечают авторы исследования.

Критическое мышление как новая цифровая грамотность

По мнению специалистов, способность анализировать работу алгоритмов становится не менее важной, чем технические навыки. К аналогичному выводу недавно пришло и Королевское общество Великобритании, подчеркнув, что обучение искусственному интеллекту должно включать развитие критического мышления. Похожие вопросы поднимались и в других исследованиях, например в работе о том, как поведение людей к ИИ зависит от его гендерных характеристик. Если этого не произойдёт, общество рискует получить поколение пользователей, уверенных в своей непогрешимости, но не способных распознать ошибку машины.

В конечном счёте, исследование Аалто показывает: чем сильнее мы полагаемся на ИИ, тем больше нуждаемся в навыке сомневаться. Только сочетание технической грамотности и саморефлексии позволит сохранить способность мыслить независимо — даже в эпоху умных алгоритмов.

Подписывайтесь на Экосевер

Читайте также

Обнаружены следы сверхмассивных звёзд в ранней Вселенной — астрофизики вчера в 16:14
Эти звёзды жили меньше миллиона лет, но изменили всё: тайна ранней Вселенной раскрывается

Учёные нашли химические следы звёзд-гигантов ранней Вселенной. Эти краткоживущие объекты могли стать источником первых сверхмассивных чёрных дыр.

Читать полностью »
Психолог рассказала, как выполнить новогодние обещания — Pravda.Ru вчера в 15:35
Почему клятвы под ёлочкой заканчиваются депрессией в феврале? Психолог объяснила, как избежать новогодней ловушки

Новогодние обещания внушают надежду, но часто становятся источником стресса. Как превратить их в реальные шаги к изменениям и не потерять веру в себя?

Читать полностью »
Дезинформация присуща всем живым существам — JR Soc Interface вчера в 12:40
Даже бактерии врут: учёные с удивлением обнаружили, что ложь — фундаментальный закон биологии

Учёные выяснили, что ложные сигналы возникают не только у людей. Как бактерии, птицы и одноклеточные вводят друг друга в заблуждение — и зачем это нужно природе?

Читать полностью »
Трекеры сна показали связь глубины отдыха с восстановлением тела — учёные вчера в 8:10
Каждая ночь — как лотерея: трекеры сна раскрывают, куда исчезает наша энергия

Современные трекеры сна помогают понять, насколько качественно вы отдыхаете. Какие модели выбрать и на что обратить внимание при покупке?

Читать полностью »
Фазы Венеры изменили её видимую яркость в течение орбиты — астрономы вчера в 4:12
Звёзды меркнут, а Венера сияет: планета нашла способ выглядеть ближе, чем есть на самом деле

Почему Венера кажется ослепительно яркой даже на фоне звёзд и иногда видна днём — дело не только в расстоянии, но и в её необычной атмосфере и фазах.

Читать полностью »
Пожилые реже воспринимают жизнь как игру с нулевой суммой — JEP вчера в 0:26
Главная иллюзия молодости: почему нам кажется, что чужой успех — это наш проигрыш

Учёные выяснили, что с возрастом люди перестают видеть жизнь как борьбу за выживание. Но почему молодёжь воспринимает успех других как собственное поражение?

Читать полностью »
Учёные создали модель ИИ, которая обучается как человеческий мозг — Pathway 22.12.2025 в 23:10
Искусственный разум сделал первый шаг к самопознанию — и это пугающе знакомо

Учёные представили прототип ИИ, который способен учиться и адаптироваться как человеческий мозг. Новый подход может приблизить нас к искусственному разуму.

Читать полностью »
Компании начали тестировать мобильную связь 4G на Луне — BBC Science Focus 22.12.2025 в 19:10
Луна ловит сигнал: зачем человечество тянет мобильную связь туда, где нет ни городов, ни людей

Компании тестируют 4G и 5G на Луне, готовя связь для будущих миссий, баз и астронавтов. Почему без сотовых сетей освоение спутника невозможно.

Читать полностью »