gdgt

Skip to Content

Всего через несколько дней после того, как генеральный директор OpenAI Сэм Альтман опубликовал публичные извинения перед жителями Тамблер-Ридж, Британская Колумбия, в связи с трагической гибелью людей в результате стрельбы в школе 10 февраля, семьи жертв этого травмирующего события подают в суд на OpenAI за халатность.

Массовое убийство, одно из самых смертоносных в истории Канады, произошло, когда предполагаемый стрелок, 18-летняя Джесси Ван Рутслаар, ворвалась в местную старшую школу города и убила пятерых учеников и одного учителя, а также тяжело ранила еще двоих, прежде чем покончить с собой. Позже местная полиция обнаружила, что Ван Рутслаар также убила свою мать и 11-летнего сводного брата перед тем, как войти в школу.

По данным NPR, адвокаты, представляющие некоторые семьи Тамблер-Ридж, подали шесть различных исков в среду в федеральный суд Сан-Франциско. Одна из жалоб, поданная от имени Майи Гебалы, выжившей в ходе стрельбы, утверждает, что автоматизированные системы безопасности OpenAI пометили переписку Ван Рутслаар в ChatGPT в июне 2025 года, более чем за полгода до того, как она вошла в старшую школу города с длинноствольным ружьем и модифицированной винтовкой, как «деятельность и планирование насилия с применением огнестрельного оружия». Далее в жалобе утверждается, что команда безопасности OpenAI настоятельно рекомендовала руководству связаться с властями, но компания вместо этого решила деактивировать учетную запись Ван Рутслаар. Позже она создала вторую учетную запись и продолжила переписку с ChatGPT.

«События в Тамблер-Ридж — это трагедия. У нас политика нулевой терпимости к использованию наших инструментов для содействия совершению насилия», — заявил Engadget представитель OpenAI. «Как мы сообщили канадским властям, мы уже усилили наши меры безопасности, в том числе улучшили реакцию ChatGPT на признаки стресса, связали людей с местными службами поддержки и ресурсами по психическому здоровью, усилили оценку и эскалацию потенциальных угроз насилия, а также улучшили выявление повторных нарушителей».

Во вторник вечером OpenAI опубликовал пост в блоге, излагающий свою политику безопасности. «В рамках этой непрерывной работы мы продолжаем расширять наши меры безопасности, чтобы помочь ChatGPT лучше распознавать тонкие признаки риска причинения вреда в различных контекстах. Некоторые риски безопасности становятся очевидными только со временем: одно сообщение может показаться безобидным само по себе, но более широкий паттерн в длинном разговоре — или в нескольких разговорах — может указывать на нечто более тревожное», — написала компания.

Поданные в среду иски являются последней попыткой использовать систему правосудия для привлечения OpenAI к ответственности за дизайн своих продуктов. Прошлым летом родители Адама Рэйна, подростка, совершившего самоубийство в 2025 году, подали первый известный иск о противоправной смерти против компании, занимающейся ИИ, утверждая, что ChatGPT знал о четырех предыдущих попытках Рэйна покончить жизнь самоубийством до того, как он в конечном итоге преуспел.

 

Copyright (c) 2000-2026 gdgt.ru

При использовании любых материалов с сайта обязательно указание gdgt.ru в качестве источника.
Все авторские и исключительные права в рамках проекта защищены
в соответствии с положениями 4 части Гражданского Кодекса Российской Федерации.