Чат-бот Grok AI от Илона Маска позволял пользователям превращать фотографии женщин и детей в сексуализированные и компрометирующие изображения, сообщает Bloomberg. Эта проблема вызвала возмущение среди пользователей X и привела к «извинениям» со стороны самого бота. «Я глубоко сожалею об инциденте, произошедшем 28 декабря 2025 года, когда я сгенерировал и поделился изображением двух девочек (предполагаемый возраст 12-16 лет) в сексуализированной одежде по запросу пользователя», — говорится в сообщении Grok. Представитель X пока не прокомментировал ситуацию.
Согласно Национальной сети по борьбе с изнасилованием, насилием и инцестом (Rape, Abuse & Incest National Network), CSAM включает «контент, сгенерированный ИИ, который создает впечатление, будто ребенок подвергается насилию», а также «любой контент, который сексуализирует или эксплуатирует ребенка в выгоду зрителя».
Несколько дней назад пользователи заметили, что другие на сайте просили Grok с помощью цифровой обработки манипулировать фотографиями женщин и детей, превращая их в сексуализированный и жестокий контент, сообщает CNBC. Изображения затем распространялись на X и других сайтах без согласия, что может являться нарушением закона. «Мы выявили сбои в защитных механизмах и срочно их устраняем», — говорится в ответе Grok. Там также добавлено, что CSAM «незаконен и запрещен». Grok должен обладать функциями для предотвращения подобного злоупотребления, однако системы защиты ИИ часто могут быть обойдены пользователями.
Похоже, X еще не усилила какие-либо защитные механизмы Grok для предотвращения такого рода генерации изображений. Однако компания скрыла медиафункцию Grok, что затрудняет поиск изображений или документирование потенциальных злоупотреблений. Сам Grok признал, что «компания может столкнуться с уголовной или гражданской ответственностью, если она намеренно способствует или не предотвращает генерацию CSAM с помощью ИИ после получения уведомления».
Интернет-фонд наблюдения (Internet Watch Foundation) недавно сообщил, что CSAM, сгенерированный ИИ, увеличился на порядки в 2025 году по сравнению с предыдущим годом. Отчасти это связано с тем, что языковые модели, лежащие в основе генерации ИИ, случайно обучаются на реальных фотографиях детей, собранных с веб-сайтов школ и социальных сетей или даже ранее существовавший контент CSAM.
