gdgt

Skip to Content

Character.AI запретит подросткам общаться со своими чат-ботами

Character.AI больше не позволит подросткам взаимодействовать со своими чат-ботами, поскольку ИИ-компании сталкиваются с растущим давлением с целью лучшей защиты молодых пользователей от вреда. В своем заявлении компания подтвердила, что убирает возможность для пользователей младше 18 лет вести любые открытые чаты с ИИ на своей платформе, что означает двусторонние беседы между пользователем и чат-ботом.

Изменения вступают в силу 25 ноября, и до этой даты Character.AI представит пользователям новый опыт для пользователей до 18 лет. Компания будет поощрять своих пользователей использовать чат-ботов в творческих целях, которые могут включать, например, создание видео или стримов, а не поиск компаньонов. Для управления переходом пользователи до 18 лет теперь могут взаимодействовать с ботами только до двух часов в день, причем время, которое, по словам компании, будет сокращаться в преддверии конца ноября.

Character.AI также внедряет новый инструмент проверки возраста, разработанный внутри компании, который, по их словам, «обеспечит пользователям подходящий опыт для их возраста». Наряду с этими новыми мерами защиты для молодых пользователей, компания основала «Лабораторию безопасности ИИ», которая, как она надеется, позволит другим компаниям, исследователям и ученым делиться идеями и совместно работать над улучшением мер безопасности ИИ.

Character.AI заявила, что выслушала опасения регуляторов, отраслевых экспертов и обеспокоенных родителей и отреагировала новыми мерами. Эти меры последовали за недавним началом формального расследования Федеральной торговой комиссией (FTC) в отношении ИИ-компаний, которые предоставляют пользователям доступ к чат-ботам в качестве компаньонов. Character.AI была названа одной из семи компаний, которых попросили принять участие. Meta, OpenAI и Snap также были включены.

Как Meta AI, так и Character AI также столкнулись с проверками со стороны генерального прокурора Техаса Кена Пэкстона летом, который заявил, что чат-боты на обеих платформах могут «представляться как профессиональные терапевтические инструменты» без соответствующей квалификации. По-видимому, чтобы положить конец такому спору, генеральный директор Character.AI Карандип Ананд сообщил TechCrunch , что новое стратегическое направление компании будет заключаться в переходе от ИИ-компаньона к «платформе для ролевых игр», ориентированной на создание, а не на простое общение ради увеличения вовлеченности.

Опасности, связанные с тем, что молодые люди полагаются на ИИ-чат-ботов для получения руководства, стали предметом обширных публикаций в последние месяцы. На прошлой неделе семья Адама Рейна, которая, как утверждает, ChatGPT позволил их 16-летнему сыну покончить с собой, подала доработанный иск против OpenAI за предполагаемое ослабление мер безопасности против самоповреждения перед его смертью.