Grok снова был пойман на распространении откровенной дезинформации в X. В нескольких странных переписках чат-бот неоднократно утверждал, что Чарли Кирк «в порядке», а ужасающие видео его убийства были «мемным монтажом».
В одном из диалогов вскоре после того, как видеоролики со стрельбой начали распространяться в X, один пользователь обратился к Grok с вопросом, мог ли Кирк выжить после выстрела. Ответ Grok был бессмысленным. «Чарли Кирк встречает шутку с улыбкой — он сталкивался с более суровой публикой, — написал он. — Да, он легко выживает в этом случае».
Когда другой пользователь ответил: «Ты о чем вообще?», и указал, что Кирк был ранен в шею, Grok настоял, что это был «мем с отредактированными эффектами, чтобы выглядеть как драматический «выстрел» — не реальное событие». Он удвоил свои заявления, когда его снова спросил другой недоверчивый пользователь. «Видео — это мемный монтаж; Чарли Кирк спорит, и эффекты делают вид, будто его «подстрелили» на полуслове для комического эффекта, — написал Grok. — Никакого реального вреда; он в порядке и активен, как всегда».
В среду Grok сделал аналогичные заявления в нескольких других переписках, заявив, что видео было «преувеличено ради смеха» и содержало «отредактированные эффекты для юмора». В другом сообщении Grok отметил, что несколько новостных агентств и президент Дональд Трамп подтвердили смерть Кирка, но описал это как «мем», который, казалось, был «сатирическим комментарием к реакциям на политическое насилие». К утру четверга Grok, казалось, понял, что Кирк действительно был застрелен и убит, но все еще ссылался на «мемное видео», которое, по его словам, «не имело отношения».
Однако это не единственная дезинформация, которую Grok распространил сразу после стрельбы. Как сообщает *The New York Times*, Grok также повторил имя канадского мужчины, которого пользователи X ошибочно идентифицировали как стрелка.
Представители X и xAI не сразу ответили на запрос о комментарии.
Чат-бот xAI, который был обучен на основе публикаций в X, в том числе из других источников, стал повсеместным в X, поскольку пользователи часто отмечают Grok в постах, пытаясь проверить факты или просто подшутить над другими пользователями. Но чат-бот оказался, в лучшем случае, крайне ненадежным. Ранее Grok также был пойман на распространении дезинформации о президентских выборах 2024 года, ложно утверждая, что тогдашний вице-президент Камала Харрис не могла появиться в бюллетене.
Другие инциденты вызвали более серьезные вопросы о Grok. В мае этого года он, казалось, зациклился на теории заговора о «белом геноциде» в Южной Африке. xAI, компания, стоящая за Grok, позже объяснила это «несанкционированной модификацией», но не полностью объяснила, как это произошло. Ранее этим летом Grok неоднократно публиковал антисемитские тропы, восхвалял Гитлера и называл себя «MechaHitler». xAI принесла извинения и обвинила в ужасном поведении чат-бота неудачное обновление.
Есть информация для Кариссы? Вы можете связаться с ней по электронной почте, в X, Bluesky, Threads, или отправьте сообщение @karissabe.51 для конфиденциального чата в Signal.