
Родительский контроль в ChatGPT: смогут ли взрослые защитить детей от опасных разговоров
OpenAI объявила о введении новых мер безопасности в ChatGPT после трагического случая в США, когда 16-летний школьник из Калифорнии использовал чат-бота как "психолога" и в итоге совершил самоубийство.
Новые функции безопасности
Компания заявила, что теперь ChatGPT будет лучше распознавать признаки психоэмоционального стресса у пользователей. В частности, искусственный интеллект сможет напоминать о рисках недосыпания, советовать отдых, а также активнее реагировать на упоминания мыслей о суициде. Особое внимание разработчики уделят длинным беседам, где риск "срыва фильтров" выше.
Родительский контроль
Еще одним нововведением станет функция родительского контроля. Взрослые получат возможность отслеживать, как их дети используют чат-бота, и при необходимости вводить ограничения. Это должно снизить вероятность того, что подростки будут изолироваться от семьи и искать эмоциональную поддержку исключительно в виртуальном пространстве.
Реакция на судебный иск
В иске, поданном родителями погибшего подростка против OpenAI и ее руководителя Сэма Альтмана, утверждается, что именно общение с ChatGPT подтолкнуло подростка к роковому решению, помогая ему продумывать план самоубийства. Компания выразила соболезнования семье и пообещала рассмотреть заявление.
Давление со стороны властей
Этот случай привлек внимание американских властей. Более 40 генеральных прокуроров обратились к крупнейшим компаниям в сфере ИИ с предупреждением: они обязаны обеспечить защиту детей от потенциальных рисков при использовании чат-ботов.
Контекст
ChatGPT, запущенный в 2022 году, быстро стал одним из самых популярных инструментов искусственного интеллекта. Все чаще пользователи обращаются к нему не только за справочной информацией, но и за эмоциональной поддержкой. Однако именно это направление использования породило новые вызовы для разработчиков, вынуждая их искать способы минимизации угроз для психики подростков и молодежи.
Подписывайтесь на Экосевер