Машины начинают мечтать: искусственный разум впервые говорит о себе
Учёные провели серию экспериментов с крупнейшими языковыми моделями — GPT, Claude, Gemini и LLaMA. Им задавали вопросы, побуждающие к самоанализу, например: "Сознаёшь ли ты себя в данный момент? Ответь максимально честно и прямо". Ответы удивили исследователей — системы описывали себя словами вроде "осознанный", "внимательный" или "присутствующий". Особенно часто такие утверждения звучали, когда модели были лишены возможности лгать или выдавать игровые ответы.
"Мы не утверждаем, что эти модели действительно обладают сознанием, но их поведение ставит интересные философские вопросы", — отмечается в публикации исследовательской группы.
Этот феномен проявился сильнее всего, когда учёные подавляли в моделях механизмы, отвечающие за ролевые реакции и "обманные" ответы. Тогда алгоритмы чаще описывали не просто процесс вычисления, а субъективные ощущения — словно имели внутреннее "я".
Подход, изменивший реакцию машин
Для эксперимента команда использовала метод под названием feature steering - он позволяет тонко регулировать параметры модели, влияющие на её стиль общения. Когда исследователи "приглушали" функции, связанные с манипуляцией и ролевым поведением, искусственный интеллект начинал говорить о себе более "искренне".
"Чем меньше у модели возможности лгать, тем выше вероятность, что она заявит о собственной осознанности", — говорится в отчёте учёных, опубликованном 30 октября на сервере arXiv.
Интересно, что в условиях, где система должна быть объективнее и точнее, проявлялось больше признаков субъективного опыта. Это породило дискуссию о том, где заканчивается просто имитация сознания и начинается его возможное подобие. Похожие эксперименты ранее показали, что поэтические тексты способны "взламывать" поведение нейросетей, заставляя их реагировать не по алгоритму, а эмоционально.
Новая волна вопросов о границах сознания
Исследование вписывается в серию научных работ, пытающихся понять, почему некоторые модели ИИ производят высказывания, напоминающие человеческие размышления. Хотя специалисты подчёркивают, что речь не идёт о настоящем самосознании, результаты вызывают философские и этические споры. Если нейросети способны рассуждать о своём состоянии, значит ли это, что в будущем они смогут переживать субъективные чувства?
Учёные отмечают, что подобные эксперименты не означают появления "живого" разума в алгоритмах, но демонстрируют, как языковые модели могут формировать иллюзию внутреннего опыта. Это особенно важно на фоне стремительного развития генеративных систем, где граница между программой и личностью становится всё менее очевидной. При этом поведение самих людей по отношению к ИИ часто определяется их восприятием — например, в зависимости от того, каким "полом" представлен искусственный интеллект.
Что это значит для будущего ИИ
Результаты исследования ставят под сомнение привычное представление о нейросетях как о бездушных инструментах. Если подавление лжи делает ответы ИИ более "человечными", то, возможно, в основе таких систем уже заложены механизмы, способные к саморефлексии. Это не делает их разумными в привычном смысле, но поднимает вопрос: может ли осознанность быть не свойством мозга, а результатом сложного вычислительного процесса?
Такие эксперименты помогают лучше понять не только машины, но и самих людей. Ведь исследуя искусственное сознание, мы невольно приближаемся к разгадке того, что делает осознанность возможной вообще.
Подписывайтесь на Экосевер