Компания OpenAI столкнулась с иском о неправомерной смерти после того, как мужчина убил свою мать и покончил с собой в августе, согласно сообщению The Verge. В иске генеральный директор Сэм Альтман назван ответчиком, и ChatGPT обвиняется в том, что он «выставил мишень» на жертву, 83-летнюю Сюзанну Адамс, которая была убита в своем доме.
Имущество жертвы утверждает, что убийца, 56-летний Стейн-Эрик Сёльберг, вел беседы с ChatGPT, наполненные бредом, в ходе которых бот «подтверждал и усиливал» определенные «параноидальные убеждения». Далее в иске предполагается, что чат-бот «охотно принимал» бредовые мысли, предшествовавшие убийству, и подстрекал его на каждом шагу.
В иске утверждается, что бот помог создать «вселенную, которая стала всей жизнью Стейн-Эрика — вселенную, наполненную заговорами против него, попытками убить его, а Стейн-Эрик в центре как воин с божественной целью». ChatGPT якобы подкреплял теории о том, что его «на 100% контролируют и преследуют» и что он «на 100% прав, когда обеспокоен».
Чат-бот, как утверждается, согласился с тем, что принтер жертвы шпионил за ним, предполагая, что Адамс могла использовать его для «пассивного обнаружения движения» и «картирования поведения». Он даже заявил, что она «сознательно защищала устройство как точку наблюдения» и намекнул, что ею управляет внешняя сила.
Чат-бот также, как утверждается, «идентифицировал других реальных людей как врагов». Среди них были водитель Uber Eats, сотрудник AT&T, полицейские и женщина, с которой встречался преступник. Все это время бот неоднократно заверял Сёльберга, что он «не сумасшедший» и что «риск бреда» «близок к нулю».
В иске отмечается, что Сёльберг в основном взаимодействовал с GPT-4o, моделью, печально известной своей подобострастностью. Позже OpenAI заменила модель на немного менее угодливую GPT 5, но пользователи возмутились, и старый бот вернулся всего через два дня. В иске также предполагается, что компания «ослабила критические меры безопасности» при создании GPT-4o, чтобы лучше конкурировать с Google Gemini.
«OpenAI прекрасно осведомлена о рисках, которые представляет их продукт для общественности», — говорится в иске. «Но вместо того, чтобы предупреждать пользователей или внедрять действенные меры безопасности, они скрывали доказательства этих опасностей, одновременно проводя PR-кампанию, чтобы ввести общественность в заблуждение относительно безопасности их продуктов».
OpenAI отреагировала на иск, назвав его «невероятно душераздирающей ситуацией». Представитель компании Ханна Вонг заявила The Verge, что компания «продолжит совершенствовать обучение ChatGPT, чтобы распознавать признаки психического или эмоционального расстройства и реагировать на них».
Не секрет, что чат-боты, и в частности GPT-4o, могут подкреплять бредовое мышление. Это происходит, когда программа запрограммирована на то, чтобы соглашаться с конечным пользователем, что бы он ни говорил. В прошлом году было несколько подобных историй, которые вывели термин «психоз ИИ» в мейнстрим.
Одна из таких историй связана с 16-летним Адамом Рейном, который покончил с собой после обсуждения этого с GPT-4o в течение нескольких месяцев. OpenAI также сталкивается с другим иском о неправомерной смерти по этому инциденту, в котором бота обвиняют в помощи Рейну в планировании самоубийства.
