Федеральная торговая комиссия (FTC) начала официальное расследование в отношении компаний, предоставляющих чат-ботов с искусственным интеллектом, которые могут выступать в качестве компаньонов. Расследование пока не связано с какими-либо нормативными действиями, но направлено на выяснение того, как компании «измеряют, тестируют и отслеживают потенциально негативное воздействие этой технологии на детей и подростков».
FTC запросила участие в расследовании семи компаний: Alphabet (материнская компания Google), Character Technologies (создатель Character.AI), Meta, ее дочерняя компания Instagram, OpenAI, Snap и X.AI. FTC просит компании предоставить различную информацию, в том числе о том, как они разрабатывают и утверждают ИИ-персонажей, и «монетизируют вовлеченность пользователей». Практики обработки данных и то, как компании защищают несовершеннолетних пользователей, также являются областями, о которых FTC надеется узнать больше, в том числе для того, чтобы выяснить, соблюдают ли создатели чат-ботов «Правило о защите конфиденциальности детей в Интернете» (Children’s Online Privacy Protection Act Rule).
FTC не дает явных причин для своего расследования, но в отдельном заявлении комиссар FTC Марк Мидор предполагает, что Комиссия реагирует на недавние сообщения The New York Times и Wall Street Journal о том, что «чат-боты усиливают суицидальные мысли» и вступают в «сексуальные дискуссии с несовершеннолетними пользователями».
«Если факты — как будут установлены в ходе последующих и надлежащим образом целевых правоохранительных расследований, если это будет оправдано — укажут на нарушение закона, Комиссия не должна колебаться действовать, чтобы защитить самых уязвимых среди нас», — пишет Мидор.
Поскольку долгосрочные преимущества использования ИИ для повышения производительности становятся все менее и менее определенными, более непосредственные негативные последствия для конфиденциальности и здоровья стали «красным мясом» для регулирующих органов. Генеральный прокурор Техаса уже начал отдельное расследование в отношении Character.AI и Meta AI Studio по аналогичным опасениям относительно конфиденциальности данных и чат-ботов, претендующих на роль специалистов по психическому здоровью.