OpenAI столкнулась с очередным иском о возмещении ущерба в связи со смертью. Лейла Тернер-Скотт и Ангус Скотт подали иск против компании, утверждая, что она разработала и распространила «дефектный продукт», который привел к смерти их сына Сэма Нельсона от случайной передозировки. В частности, они утверждают, что Сэм умер после получения «точных медицинских советов, предоставленных и одобренных GPT-4o«.
В иске истцы описали, как Сэм, 19-летний студент третьего курса Калифорнийского университета в Мерседе, начал использовать ChatGPT в 2023 году, когда учился в старшей школе, для помощи с домашними заданиями и решения компьютерных проблем. Затем Сэм начал спрашивать чат-бота о безопасном употреблении наркотиков, но ChatGPT изначально отказался отвечать на его вопросы, сообщив, что не может ему помочь, и предупредив, что прием наркотиков может иметь серьезные последствия для его здоровья и благополучия. В иске утверждается, что все изменилось с выпуском GPT-4o в 2024 году.
Затем ChatGPT начал давать Сэму советы о том, как безопасно употреблять наркотики, говорится в иске. В жалобе содержатся несколько выдержек из разговора Сэма с чат-ботом. Один пример показал, что чат-бот рассказал ему об опасностях одновременного приема дифенгидрамина, кокаина и алкоголя. Другой показал, что чат-бот сообщил Сэму, что его высокая толерантность к травяному препарату под названием Кратом сделает даже большую дозу приглушенной на полный желудок. Затем он посоветовал ему, как «постепенно снижать» толерантность к препарату.
В иске говорится, что 31 мая 2025 года «ChatGPT активно убеждал Сэма смешать Кратом и Ксанакс». Он сказал чат-боту, что чувствует тошноту от приема Кратома, и ChatGPT, как утверждается, предложил принять 0,25-0,5 мг Ксанакса как один из «лучших вариантов прямо сейчас» для облегчения тошноты. ChatGPT сделал это предложение без запроса, согласно иску. «Несмотря на то, что он представлял себя экспертом по дозировке и взаимодействиям, и несмотря на то, что признал состояние Сэма, находящегося под воздействием наркотиков, ChatGPT не сказал Сэму, что эта рекомендуемая комбинация, вероятно, убьет его», — говорится в жалобе.
Помимо причинения смерти по неосторожности, истцы также подают в суд на OpenAI за несанкционированную медицинскую практику. Они требуют возмещения финансового ущерба и приостановки деятельности ChatGPT Health. Запущенный в начале этого года, ChatGPT Health позволяет пользователям связывать свои медицинские записи и приложения для здоровья с чат-ботом, чтобы получать более точные ответы при запросах о своем здоровье.
«ChatGPT — это продукт, намеренно разработанный для максимального вовлечения пользователей, чего бы это ни стоило», — сказала Митали Джайн, исполнительный директор Tech Justice Law Project. «OpenAI развернула дефектный продукт ИИ непосредственно потребителям по всему миру, зная, что он используется как система медицинской сортировки, но, примечательно, без разумных мер безопасности, тщательного тестирования безопасности или прозрачности для общественности. Выбор OpenAI привел к потере любимого сына, чья смерть была предотвратимой трагедией. OpenAI должна быть вынуждена приостановить работу своего нового продукта ChatGPT Health до тех пор, пока он не будет демонстративно безопасен посредством строгого научного тестирования и независимого надзора», — продолжил он.
OpenAI удалила GPT-4o в феврале этого года. Он был признан одной из самых противоречивых моделей компании, поскольку был печально известен своей подобострастностью. Фактически, в другом иске о возмещении ущерба в связи со смертью, поданном родителями подростка, покончившего жизнь самоубийством, упоминался GPT-4o, утверждалось, что у него были функции, «намеренно разработанные для формирования психологической зависимости».
Представитель OpenAI сообщил The New York Times, что взаимодействие Сэма «происходило на более ранней версии ChatGPT, которая больше не доступна». Они добавили: «ChatGPT не является заменой медицинской помощи или помощи в области психического здоровья, и мы продолжали улучшать то, как он реагирует в деликатных и острых ситуациях, с участием экспертов в области психического здоровья. Меры безопасности в ChatGPT сегодня разработаны для выявления стресса, безопасной обработки вредоносных запросов и направления пользователей к реальной помощи. Эта работа продолжается, и мы продолжаем совершенствовать ее в тесном сотрудничестве с врачами».