gdgt

Skip to Content

Anthropic попросит пользователей Claude подтверждать личность «для нескольких сценариев использования»

Anthropic начала внедрять проверку личности в Claude «для нескольких сценариев использования». Компания не уточнила эти сценарии в своем объявлении, но мы запросили у них подробности и обновим эту статью, как только получим ответ. Anthropic заявляет, что вы можете увидеть запрос на проверку при «доступе к определенным возможностям», где вас попросят подтвердить свою личность. Вам придется предъявить действительное и физическое удостоверение личности с фотографией, выданное государством. Вам также придется сделать селфи с помощью камеры вашего телефона или компьютера, которую система будет сравнивать с предоставленным вами удостоверением.

Эта новость, как и следовало ожидать, была воспринята неоднозначно. Многие пользователи задаются вопросом о необходимости проверки личности для использования ИИ-чат-бота, особенно если Anthropic уже имеет данные их кредитных карт как платных подписчиков. Люди также критикуют решение Anthropic использовать Persona Identities, которая также предоставляет услуги по проверке возраста для OpenAI и Roblox. Одним из основных инвесторов Persona является венчурная фирма Founders Fund, сооснователем которой является Питер Тиль, также являющийся сооснователем и председателем компании-разработчика систем наблюдения Palantir.

Клиентами Palantir являются в основном федеральные агентства и государственные учреждения, включая ФБР, ЦРУ и Иммиграционную и таможенную службу США. Большинство критики в адрес компании связано с услугами, которые она предоставляет этим клиентам, поскольку они в основном используются для расширения государственного наблюдения с помощью ее технологий распознавания лиц и искусственного интеллекта.

В своем объявлении Anthropic заявила, что именно Persona будет обрабатывать ваши удостоверения личности и селфи. Она не будет копировать и хранить эти изображения. Также было сказано, что Persona «контрактно ограничена» в использовании ваших данных, и что все данные, проходящие через ее процесс, «зашифрованы при передаче и в состоянии покоя». Anthropic подчеркнула, что не будет использовать ваши идентификационные данные для обучения своих моделей и не будет передавать ваши данные никому.