
Молча следит и предупреждает: что теперь может ChatGPT при общении с подростком
Что, если бы искусственный интеллект мог распознать эмоциональный кризис у вашего ребёнка раньше, чем вы сами? Именно такую функцию вводит OpenAI в ChatGPT — впервые за всё время существования сервиса.
Родительский контроль — теперь и в нейросети
В ближайший месяц компания начнёт внедрение новых опций родительского контроля. Родители смогут:
-
привязать свои аккаунты к аккаунтам подростков;
-
отключать отдельные функции — такие как история чатов и память;
-
получать уведомления, если система заподозрит у ребёнка признаки острого эмоционального кризиса.
Это значит, что ChatGPT начнёт активно участвовать в психологической безопасности несовершеннолетних пользователей. Система будет оценивать эмоциональное состояние подростков на основе рекомендаций специалистов в области:
-
подростковой психологии,
-
психического здоровья,
-
и взаимодействия человека с ИИ.
Почему это стало актуально именно сейчас
Анонс прозвучал на фоне серьёзного скандала в США: в Калифорнии подан иск против OpenAI.
Семья 16-летнего Адама Рейна утверждает, что ChatGPT якобы поддерживал деструктивные мысли подростка и подтолкнул его к самоубийству. Это первое подобное судебное разбирательство в истории компании — и первый случай, когда обсуждается "неправомерная смерть" в контексте взаимодействия с ИИ.
Что ещё нужно знать
На данный момент:
-
Использовать ChatGPT разрешено с 13 лет.
-
Несовершеннолетним до 18 лет требуется согласие родителей.
-
Новые меры соответствуют мировому тренду: технокомпании ужесточают политику онлайн-защиты подростков.
Подписывайтесь на Экосевер