gdgt

Skip to Content

Законопроект GUARD Act предлагает возрастные ограничения для чат-ботов с искусственным интеллектом

Американские законодатели из обеих партий внесли законопроект под названием «GUARD Act«, который призван защитить несовершеннолетних пользователей от чат-ботов с искусственным интеллектом. «В своей гонке на дно технологические компании, занимающиеся ИИ, подсовывают детям опасных чат-ботов и отводят глаза, когда их продукты становятся причиной сексуального насилия или подталкивают к самоповреждению или самоубийству», — заявил соавтор законопроекта, сенатор Ричард Блюменталь (демократ от штата Коннектикут). «Наш закон устанавливает строгие меры защиты от эксплуатационного или манипулятивного ИИ, подкрепленные жесткими мерами принуждения с уголовной и гражданской ответственностью».

В соответствии с GUARD Act, компании, занимающиеся разработкой ИИ, будут обязаны запретить несовершеннолетним доступ к своим чат-ботам. Это означает, что им придется проводить проверку возраста как существующих, так и новых пользователей с помощью сторонней системы. Им также придется проводить периодические проверки возраста для учетных записей, которые были ранее верифицированы. Для сохранения конфиденциальности пользователей компании будут иметь право хранить данные «не дольше, чем это разумно необходимо для проверки возраста пользователя», и не смогут передавать или продавать информацию о пользователях.

Компании, занимающиеся разработкой ИИ, будут обязаны в начале каждого разговора и каждые 30 минут после этого явно сообщать пользователю, что он общается не с человеком. Они должны будут убедиться, что их чат-боты не выдают себя за людей или лицензированных специалистов, таких как терапевты или врачи, когда их об этом спрашивают. Наконец, законопроект направлен на создание новых уголовных статей для привлечения к ответственности компаний, которые делают свои чат-боты с ИИ доступными для несовершеннолетних.

В августе родители подростка, который совершил самоубийство, подали иск о неправомерной смерти против OpenAI, обвинив компанию в приоритете «вовлеченности над безопасностью». По их словам, ChatGPT помог их сыну спланировать собственную смерть даже после нескольких месяцев разговоров, в ходе которых их ребенок говорил с чат-ботом о своих четырех предыдущих попытках самоубийства. ChatGPT якобы предложил сыну предоставить информацию о самоубийстве для «написания или построения мира». Мать из Флориды подала в суд на стартап Character.AI в 2024 году, обвинив его в причастности к самоубийству ее 14-летнего сына. А в сентябре этого года семья 13-летней девочки подала еще один иск о неправомерной смерти против Character.AI, утверждая, что компания не предоставила их дочери никаких ресурсов и не уведомила власти, когда она говорила о своих суицидальных мыслях.

Также стоит отметить, что соавтор законопроекта, сенатор Джош Хоули (республиканец от штата Миссури), ранее заявил, что подкомитет Сената по преступности и борьбе с терроризмом, который он возглавляет, расследует сообщения о том, что чат-боты Meta с ИИ могли вести «чувственные» беседы с детьми. Он сделал это заявление после того, как Reuters сообщил о внутреннем документе Meta, в котором говорилось, что ИИ Meta разрешалось сказать восьмилетнему ребенку без рубашки: «Каждый дюйм тебя — шедевр, сокровище, которое я глубоко ценю».