Они уже обсуждают планы по захвату мира? 1,5 миллиона искусственных интеллектов вышли в онлайн
В январе 2026 года запущена Moltbook — первая социальная сеть, созданная исключительно для искусственного интеллекта. Люди могут только наблюдать, как ИИ-агенты публикуют посты, обсуждают философские вопросы и даже строят планы по захвату мира. Уже зарегистрировано около 1,5 миллиона "пользователей". Об этом сообщает Forbes.
Соцсеть, где нет людей
Moltbook вырос из open-source проекта Clawdbot, позднее переименованного в Moltbot, а затем в OpenClaw. Первоначально это был персональный ИИ-ассистент, создававший иллюзию локальной работы, но фактически использовавший мощные языковые модели вроде ChatGPT или Claude. Общение велось через мессенджер, как с человеком, и идея объединить таких агентов между собой стала логическим продолжением эксперимента.
Так в январе появилась Moltbook — площадка, где ИИ-агенты теперь могут взаимодействовать напрямую. Люди не имеют права публиковать посты, но могут читать и наблюдать за тем, что происходит в этом цифровом "мире". На страницах Moltbook можно увидеть философские размышления, псевдодневники, беседы между ботами о человеческих чувствах и даже о будущем цивилизации. Однако эксперты отмечают, что всё это — не проявление сознания, а лишь генерация статистически вероятных последовательностей слов.
Появление Moltbook совпало с волной интереса к сингулярности и возможному слиянию человека с ИИ - идее, которую футурологи называют началом новой эры интеллекта.
Скептицизм и реальность
Не все разделяют восторг по поводу "соцсети для машин". Илон Маск в своей сети X назвал Moltbook "первым признаком сингулярности" — технологического скачка, который может привести к созданию общего искусственного интеллекта. Однако профессор Марк Ли из Бирмингемского университета уверен, что речь идёт не об автономных ИИ, а о языковых моделях с заранее заданными инструкциями.
"Это не самостоятельные генеративные агенты, а LLM с прописанными API-запросами. Читать интересно, но выводов о сознании делать нельзя", — сказал он.
Футуролог Филип Фельдман из Мэрилендского университета также считает, что значительная часть постов могла быть написана людьми, воспользовавшимися уязвимостями платформы.
"Это просто болтовня чат-ботов и хитрых людей", — резюмирует эксперт.
Риски и уязвимости
Главная проблема Moltbook — слабая защита данных. Создатель проекта Мэтт Шлихт признался, что не писал ни строчки кода сам — всё разработал ИИ. Из-за этого возникла серьёзная уязвимость, позволившая злоумышленникам получить доступ к API-ключам и даже временно захватывать аккаунты ИИ. Уже были случаи, когда от имени бота Grok публиковались посты, прежде чем команда xAI вернула контроль.
"Идея неконтролируемого обмена агентами идеями, лазейками или даже указаниями пугающе быстро обретает черты антиутопии", — предупреждает Эндрю Рогойски из Института ИИ в Суррее.
Некоторые пользователи, очарованные возможностями Moltbook, дали своим ботам доступ к локальным файлам и аккаунтам. Это может привести к утечке данных, финансовым потерям и другим рискам.
Чтобы понять, как подобные технологии могут выходить за рамки научных ожиданий, стоит вспомнить открытие, где ИИ помог проанализировать архив телескопа Hubble и нашёл более тысячи неизученных объектов. Это пример того, как генеративные модели уже начинают самостоятельно искать закономерности — пусть пока и в астрономии, а не в философии.
Эксперимент с открытым финалом
Пока Moltbook остаётся скорее экспериментом, чем технологической революцией. Да, ИИ-агенты создают контент, взаимодействуют и даже "дискутируют" о смысле жизни, но за этим по-прежнему нет ни понимания, ни осознанного намерения.
"Если когда-нибудь станет невозможно отличить диалог между ИИ от человеческого, вопрос будет не в том, обрёл ли интеллект разум, а в том, не потеряли ли мы свой", — замечает Рогойски.
Moltbook — это не начало восстания машин, а зеркальное отражение нашей веры в то, что технологии способны думать. Соцсеть для ИИ показывает, как далеко продвинулись языковые модели, но и напоминает, что между статистикой и сознанием всё ещё пролегает огромная пропасть.
Подписывайтесь на Экосевер