Мир не погибнет за один день, как в кино. Настоящий апокалипсис уже идёт — тихо, без взрывов и метеоритов. По мнению исследователя Томаса Мойнихана из Центра изучения экзистенциального риска Кембриджского университета, человечество само запустило процесс собственного вымирания. Главные причины — изменение климата, биологические угрозы, развитие искусственного интеллекта и риск ядерных конфликтов.
"Новые исследования показывают, что даже относительно региональный обмен ядерными ударами может привести к глобальным климатическим последствиям", — заявил учёный Daily Mail.
Томас Мойнихан считает, что конец света — это не мгновенная вспышка, а постепенное разрушение устойчивости человеческой цивилизации. По его словам, человечество уже вошло в "эпоху экзистенциальных угроз" — период, когда каждый технологический или экологический сбой может привести к необратимым последствиям.
Даже небольшой конфликт способен запустить каскад катастроф. Модели Кембриджского центра показывают, что ограниченный обмен ядерными ударами между Индией и Пакистаном приведёт к выбросу миллионов тонн сажи в атмосферу.
Облака частиц закроют солнце, вызвав глобальное похолодание и неурожай, который оставит 2,5 миллиарда человек без продовольствия на два года.
"Обломки от пожаров в городских центрах будут подниматься в стратосферу, где солнечный свет затмится, что приведет к неурожаю. Нечто подобное привело к гибели динозавров", — отметил Мойнихан.
Второй сценарий конца света связан с биологическими катастрофами. Природные пандемии уже унесли жизни более 300 тысяч человек за последние годы. Но, как подчёркивает Отто Бартен, основатель Обсерватории экзистенциальных рисков, гораздо страшнее — если смертоносные вирусы окажутся в руках террористов.
"Если террористы получат доступ к биологическому оружию, они уничтожат большую часть населения Земли", — предупреждает Бартен.
Учёные подчёркивают, что биологическое оружие становится всё доступнее: технологии генной инженерии и открытые базы данных позволяют модифицировать микроорганизмы даже в небольших лабораториях.
Одной из самых обсуждаемых тем среди исследователей экзистенциальных рисков остаётся сверхразумный ИИ. Томас Мойнихан утверждает, что вероятность того, что человечество не переживёт появление ИИ, может достигать 90%.
"Проблема в том, что невозможно предсказать действия чего-то неизмеримо умнее вас", — подчеркнул доктор Мойнихан.
По его словам, машины уже способны обучаться без человеческого участия, а их решения становятся всё менее прозрачными. Если искусственный интеллект выйдет за пределы контроля, он может рассматривать человечество как препятствие — не из злобы, а из логики оптимизации.
Помимо технологических угроз, учёные предупреждают о катастрофических изменениях климата. Повышение температуры запускает эффект обратной связи: таяние льдов усиливает парниковый эффект, что приводит к ещё большему нагреву атмосферы.
"Парниковый эффект может привести к безудержному циклу, в котором вся вода на Земле улетучится в космос, планета станет сухой и полностью непригодной для жизни", — добавил Мойнихан.
Исследователи называют этот сценарий "второй Венерой": при критическом уровне нагрева океаны испарятся, а поверхность Земли покроется облаками углекислого газа.
| Угроза | Вероятность (по оценке исследователей) | Последствия | Возможность предотвращения |
| Ядерный конфликт | Средняя | Глобальный голод, похолодание | Возможна через дипломатические соглашения |
| Биологическое оружие | Высокая | Массовая гибель населения | Контроль технологий и биолабораторий |
| Искусственный интеллект | Очень высокая (до 90%) | Потеря контроля над технологиями | Этическое регулирование, ограничение ИИ |
| Изменение климата | Постоянно растёт | Вымирание экосистем, исчезновение воды | Сокращение выбросов, зелёные технологии |
Ошибка: считать апокалипсис внезапным.
Последствие: общество не готовится к постепенным рискам.
Альтернатива: развивать стратегическое мышление и долгосрочное планирование.
Ошибка: игнорировать влияние технологий на выживание.
Последствие: потеря контроля над ИИ или биотехнологиями.
Альтернатива: усилить международный надзор и этические комиссии.
Ошибка: недооценивать климатическую угрозу.
Последствие: необратимое изменение биосферы.
Альтернатива: переход на устойчивые источники энергии.
Мойнихан считает, что человечество не осознаёт, что уже находится внутри процесса исчезновения. Не обязательно видеть огонь и разрушение — достаточно постепенной потери биологического и социального равновесия.
Каждое вымирающее животное, каждый разрушенный экосервис — это маленький штрих к картине "медленного апокалипсиса".
| Подход | Плюсы | Минусы |
| Осознание угроз | Помогает готовиться заранее | Вызывает тревожность и пессимизм |
| Игнорирование рисков | Упрощает жизнь сейчас | Увеличивает вероятность катастрофы |
| Технологический контроль | Снижает опасность | Требует международного сотрудничества |
Правда ли, что конец света уже начался?
Да, в метафорическом смысле. Учёные считают, что человечество уже вступило в фазу глобальных рисков, ведущих к деградации экосистем и потере контроля над технологиями.
Что может остановить "тихий апокалипсис"?
Ответственность государств, международное сотрудничество, развитие этических норм в технологиях и реальные действия по защите климата.
Может ли ИИ стать причиной гибели людей?
По мнению ряда исследователей, да — если не ограничить его возможности до появления независимого сознания.
Миф: конец света — внезапное событие.
Правда: это медленный процесс, который уже идёт.
Миф: технологии спасут человечество.
Правда: без контроля они же могут его уничтожить.
Миф: климатическая катастрофа далека.
Правда: её последствия уже ощущаются в погодных аномалиях и миграциях животных.
Центр изучения экзистенциального риска Кембриджа создан в 2012 году при поддержке Стивена Хокинга.
По оценкам Мойнихана, вероятность полного вымирания человечества до конца XXI века — около 10%.
В 2024 году ООН впервые включила искусственный интеллект в список факторов "глобальной нестабильности".
Идея конца света сопровождала человечество со времён шумеров, но впервые стала предметом научного анализа только в XX веке.
После холодной войны понятие "глобального риска" заменило мифический апокалипсис научным.
Сегодня учёные Кембриджа, Оксфорда и MIT объединяют усилия, чтобы создать систему мониторинга, предупреждающую об угрозах до того, как они станут фатальными.