
Кто нажмёт завтра ядерную кнопку: ИИ отстраняет человека от принятия решений в военной сфере — чем это грозит
В мире, где искусственный интеллект всё глубже проникает в самые уязвимые сферы, на горизонте появляется тревожный сценарий: доступ алгоритмов к ядерным системам. На недавней встрече специалистов по безопасности, нобелевских лауреатов и военных аналитиков большинство сошлись во мнении — вопрос уже не в том, "если", а в том, "когда".
От советника к потенциальному оператору
Сегодня ИИ активно используется в разведке, моделировании боевых сценариев, расчёте траекторий и анализе угроз. Он помогает военным быстрее оценивать обстановку и предлагать решения. Формально он пока что — советник, а последнее слово остаётся за офицером. Но граница постепенно размывается: всё чаще человек лишь подтверждает то, что "посчитала" машина.
Риски "галлюцинаций" и уязвимых каналов
Современные генеративные модели способны обрабатывать колоссальные массивы данных, прогнозировать угрозы и просчитывать сценарии на годы вперёд. Но у них есть ахиллесова пята — неконтролируемые логические сбои, или "галлюцинации". В мирное время это может быть забавной ошибкой, но в условиях боевого дежурства ошибка станет необратимой.
Не менее опасна и уязвимость каналов управления: если противник получит к ним доступ, он сможет встроить собственный сценарий или использовать систему через враждебный ИИ. Чем выше автоматизация, тем сложнее вовремя перехватить управление.
"Новый Манхэттенский проект"
Крупные технологические компании уже работают с оборонными ведомствами. Так, OpenAI сотрудничает с лабораториями США в сфере ядерной безопасности. Министерство энергетики сравнивает роль ИИ в стратегической обороне с Манхэттенским проектом — намекая на его потенциально критическое значение. Эксперты при этом подчеркивают: доверие к нейросетям не должно становиться слепой верой.
Последнее слово должно быть за человеком
Часть военных чиновников настаивает: ИИ не должен самостоятельно принимать решения о запуске. Но с ростом его влияния угроза смещения баланса реальна — и тогда момент, когда машина впервые нажмёт кнопку, может наступить слишком быстро.
Единственный консенсус сегодня — необходимость жёсткого механизма контроля, где человек сохраняет право окончательного решения. Пока это условие выполняется, риск управляем. Но если граница будет пересечена, то в критический момент уже никто не сможет точно сказать, кто именно инициировал запуск — человек или алгоритм.
Подписывайтесь на Экосевер