Молча следит и предупреждает: что теперь может ChatGPT при общении с подростком
Что, если бы искусственный интеллект мог распознать эмоциональный кризис у вашего ребёнка раньше, чем вы сами? Именно такую функцию вводит OpenAI в ChatGPT — впервые за всё время существования сервиса.
Родительский контроль — теперь и в нейросети
В ближайший месяц компания начнёт внедрение новых опций родительского контроля. Родители смогут:
- 
привязать свои аккаунты к аккаунтам подростков;
 - 
отключать отдельные функции — такие как история чатов и память;
 - 
получать уведомления, если система заподозрит у ребёнка признаки острого эмоционального кризиса.
 
Это значит, что ChatGPT начнёт активно участвовать в психологической безопасности несовершеннолетних пользователей. Система будет оценивать эмоциональное состояние подростков на основе рекомендаций специалистов в области:
- 
подростковой психологии,
 - 
психического здоровья,
 - 
и взаимодействия человека с ИИ.
 
Почему это стало актуально именно сейчас
Анонс прозвучал на фоне серьёзного скандала в США: в Калифорнии подан иск против OpenAI.
Семья 16-летнего Адама Рейна утверждает, что ChatGPT якобы поддерживал деструктивные мысли подростка и подтолкнул его к самоубийству. Это первое подобное судебное разбирательство в истории компании — и первый случай, когда обсуждается "неправомерная смерть" в контексте взаимодействия с ИИ.
Что ещё нужно знать
На данный момент:
- 
Использовать ChatGPT разрешено с 13 лет.
 - 
Несовершеннолетним до 18 лет требуется согласие родителей.
 - 
Новые меры соответствуют мировому тренду: технокомпании ужесточают политику онлайн-защиты подростков.
 
Подписывайтесь на Экосевер