Кто управляет интернетом — человек или алгоритм? Грядёт борьба за цифровую свободу
Глава Лиги безопасного интернета Екатерина Мизулина выступила на пленарном заседании "Вызовы и точки роста современных СМИ", где заявила о необходимости скорейшего регулирования технологий искусственного интеллекта. По её словам, ИИ всё активнее используется для манипуляции сознанием пользователей, создания фейков и кибермошенничества, что требует вмешательства государства.
"Нам важно начать думать о государственном регулировании всей сферы искусственного интеллекта, пока не стало совсем поздно. И фейки, и манипуляции, и мошеннические действия. Мы видим, что многие из этих нейросетей — это вообще-то западные продукты, иностранные продукты. И через них идет очень серьезное формирование смыслов", — заявила Мизулина.
Почему ИИ стал угрозой информационной безопасности
По словам главы Лиги безопасного интернета, современные нейросети всё чаще применяются не для творчества или автоматизации, а для распространения дезинформации и подмены реальности. Уже сейчас создаются реалистичные изображения и видео, которые невозможно отличить от настоящих.
Мизулина подчеркнула, что в ближайшие годы эта тенденция усилится: контент, созданный с помощью ИИ, станет неотличим от реальных фото и видеоматериалов, а значит — возрастёт риск манипуляций общественным мнением и массовых фейков.
Возможное ограничение западных нейросетей
По словам Мизулиной, в будущем может встать вопрос о частичном или полном ограничении использования западных нейросетей на территории России. Она подчеркнула, что такие системы зачастую служат не только коммерческим, но и политическим целям, формируя идеологические нарративы и воздействуя на пользователей.
"Мы видим, что многие нейросети — западные продукты, и через них идёт очень серьёзное формирование смыслов", — подчеркнула Мизулина.
Она также указала, что России необходимо развивать собственные отечественные системы искусственного интеллекта, способные обеспечивать технологическую независимость и защиту данных граждан.
Опасения экспертов: контент ИИ скоро будет неотличим от реальности
По оценкам специалистов, в ближайшие 3-5 лет уровень реалистичности нейросетей достигнет такого уровня, что отличить сгенерированные видео и аудио от настоящих без специальных инструментов станет невозможно. Это создаёт серьёзные риски:
-
появление фейковых политических заявлений и новостей,
-
использование "deepfake"-видео для шантажа и дискредитации,
-
создание ложных документов и доказательств.
Таблица "Основные риски неконтролируемого использования ИИ"
| Риск | Потенциальное последствие | Примеры |
| Генерация фейков | Потеря доверия к СМИ и власти | Deepfake-видео с политиками |
| Манипуляции сознанием | Влияние на общественное мнение | ИИ-контент в соцсетях |
| Мошенничество | Ущерб бизнесу и гражданам | Голосовые подделки, фишинг |
| Нарушение приватности | Утечка персональных данных | Нейросети для распознавания лиц |
Мизулина уверена, что регулирование должно включать контроль за разработкой и применением нейросетей, а также маркировку ИИ-контента, чтобы пользователи могли понимать, где они взаимодействуют с искусственным интеллектом.
ИИ и кибербезопасность: связь с идеей суверенного интернета
Тема регулирования ИИ тесно связана с вопросом информационного суверенитета. Как ранее заявил эксперт по информационной безопасности Алексей Горелкин, с 1 марта 2026 года правительство России сможет временно отключать Рунет от мировой сети при возникновении угроз — например, кибератак или масштабных фейковых кампаний.
Этот механизм сравнивают с китайской системой интернет-контроля, но в России, как отмечает Горелкин, он будет иметь иной характер:
"Система не будет копией "Великого китайского файервола" — её цель не цензура, а обеспечение технологической независимости и безопасности в условиях кибервойны", — пояснил эксперт.
Такой подход предполагает создание "цифрового суверенитета", при котором государство сможет защитить внутренние сети и пользователей от внешнего вмешательства.
Что может войти в будущие меры регулирования ИИ
Специалисты Лиги безопасного интернета и профильных ведомств уже обсуждают возможные механизмы регулирования. Среди предложений:
-
Обязательная маркировка контента, созданного ИИ.
-
Разработка отечественных платформ искусственного интеллекта с приоритетом локальных данных.
-
Создание центра мониторинга фейков, генерируемых нейросетями.
-
Правовые ограничения для зарубежных систем ИИ в критических областях — медиа, образование, госуслуги.
-
Этические кодексы для разработчиков - с учётом рисков манипуляции и защиты персональных данных.
Таблица "Потенциальные направления регулирования искусственного интеллекта"
| Направление | Цель | Пример реализации |
| Маркировка контента | Повышение прозрачности | Теги "создано ИИ" |
| Национальные ИИ-системы | Снижение зависимости от Запада | Отечественные нейросети |
| Правовое регулирование | Контроль за использованием ИИ | Законы о данных и авторстве |
| Этический контроль | Предотвращение злоупотреблений | Комиссии при Лиге безопасного интернета |
Контекст: ИИ и безопасность цифрового пространства
Мизулина неоднократно подчёркивала, что всемирная сеть никогда не будет полностью безопасной, особенно в условиях бурного развития технологий. Она призывает сочетать развитие цифровых сервисов с жёсткими мерами защиты пользователей - от кибермошенничества до подмены информации.
Сейчас Лига безопасного интернета активно продвигает инициативы по созданию системы цифровой идентификации и контроля контента, которая позволит распознавать источники фейков и противодействовать их распространению.
Подытоживающий блок
Выступление Екатерины Мизулиной вновь подняло вопрос о границах ответственности искусственного интеллекта и роли государства в цифровую эпоху. По её словам, без чёткого регулирования нейросети могут стать инструментом не прогресса, а манипуляции.
Регулирование ИИ, развитие отечественных технологий и обеспечение информационной независимости — ключевые направления, которые, по мнению экспертов, позволят России сохранить контроль над цифровым пространством и защитить пользователей от киберугроз.
Подписывайтесь на Экосевер