xAI, которая уже сталкивается с многочисленными расследованиями по всему миру из-за широко распространенных сообщений о том, что Grok неоднократно создавала сексуализированные изображения детей, теперь сталкивается с коллективным иском. Трое подростков, которые утверждают, что их фотографии были использованы Grok для создания материалов о сексуальном насилии над детьми, подали коллективный иск против xAI в Калифорнии.
Согласно иску, одна из подростков была предупреждена в декабре прошлого года о том, что кто-то распространяет сгенерированные ИИ изображения и видео с ней и другими несовершеннолетними «в знакомых ей местах, но измененные на откровенно сексуальные позы». Изображения и видео предположительно распространялись в Discord, Telegram и на других платформах и использовались «в качестве инструмента обмена» на другие изображения CSAM. Сотрудники правоохранительных органов, расследовавшие инцидент, сообщили родителям девочек, что изображения были созданы с помощью Grok от xAI, говорится в иске.
Трое подростков, все из которых проживают в Теннесси и обозначены как Jane Doe 1, Jane Doe 2 и Jane Doe 3, «пережили сильное эмоциональное расстройство», говорится в заявлении. «Их жизни были разрушены опустошительной потерей конфиденциальности, достоинства и личной безопасности, вызванной производством и распространением этих CSAM», — пишут адвокаты подростков в жалобе, которая была предоставлена Engadget. «Финансовая выгода xAI от возросшего использования ее продукта для создания изображений и видео произошла за счет их средств и благополучия. Истцам придется провести остаток своей жизни, зная, что их изображения и видео CSAM могут продолжать распространяться и продаваться онлайн детскими сексуальными хищниками».
Хотя в иске в настоящее время фигурируют три человека, в жалобе говорится, что он может охватывать «по меньшей мере тысячи несовершеннолетних», чьи фотографии также были обработаны Grok в сексуализированные изображения. В иске утверждается, что xAI нарушила множество законов, включая законы, запрещающие производство и распространение материалов о жестоком обращении с детьми.
xAI не сразу ответила на запрос о комментарии по поводу иска. Компания также сталкивается с многочисленными расследованиями в США и Европе по поводу предполагаемого создания Grok изображений обнаженной натуры без согласия. Исследователи из Центра по борьбе с цифровой ненавистью подсчитали в январе, что Grok произвел миллионы сексуализированных изображений, включая 23 000, которые, как казалось, изображали детей.
Генеральный директор xAI Илон Маск, который ранее продвигал «пикантные» способности Grok, заявил, что он «не знал о каких-либо обнаженных изображениях несовершеннолетних, сгенерированных Grok». xAI объявила в январе, что прекратит разрешать людям использовать Grok для редактирования изображений реальных людей в бикини и ограничит функцию генерации изображений Grok только платными подписчиками.
