Юридичний прецедент: Чи зобов’язані ШІ-компанії повідомляти про насильницькі погрози?

Створіть обліковий запис, щоб зберегти статті.Додати в GoogleДодайте Decrypt як улюблене джерело, щоб бачити більше наших історій у Google.
Коротко
- OpenAI стикається з позовом, який стверджує, що ChatGPT зіграв роль у масовому розстрілі в Британській Колумбії в лютому.
- Позивачі стверджують, що команда безпеки OpenAI закликала компанію повідомити поліцію за кілька місяців до нападу.
- Справа може перевірити, чи повинні компанії, що займаються ШІ, повідомляти про насильницькі погрози правоохоронним органам.
Компанія OpenAI постала перед новим судовим позовом, у якому стверджується, що вона не попередила поліцію після того, як ChatGPT був пов’язаний з одним із найсмертоносніших шкільних розстрілів у Канаді. Ця справа додається до зростаючої уваги до того, як компанії, що працюють зі штучним інтелектом (ШІ), реагують на ознаки небезпеки та насильства в реальному світі.
Згідно зі звітом Ars Technica, позов був поданий у середу до федерального суду Північної Каліфорнії неповнолітнім позивачем (12 років), ідентифікованим як M.G., та її матір’ю, Сією Едмондс, проти генерального директора OpenAI Сема Альтмана та кількох компаній OpenAI.
Позов звинувачує компанію в недбалості, невиконанні обов’язку попереджати владу, відповідальності за продукт та сприянні вчиненню масового вбивства.
«Сем Альтман та його керівництво знали, що мовчання означатиме для громадян Тамблер-Ріджа», — йдеться у скарзі. «Вони зосередилися на тому, що розкриття інформації означатиме для них самих. Попередження Королівської канадської кінної поліції (RCMP) створило б прецедент: OpenAI був би змушений повідомляти владу щоразу, коли його команда безпеки виявляє користувача, який планує насильство в реальному світі».
Справа пов’язана з масовим розстрілом у Тамблер-Ріджі, Британська Колумбія, у лютому. За даними влади, 18-річна Джессі Ван Рутслаар вбила свою матір та 11-річного зведеного брата вдома, перш ніж піти до середньої школи Тамблер-Рідж та відкрити вогонь. П’ятеро дітей та один викладач загинули в школі, перш ніж Ван Рутслаар скоїла самогубство.
Серед постраждалих була M.G., яка отримала три кульових поранення і залишається в лікарні з катастрофічними ушкодженнями мозку. Згідно зі скаргою, вона при тямі, але не може рухатися чи говорити.
Джей Едельсон, засновник і генеральний директор Edelson PC, юридичної фірми, що представляє кілька родин, які подали позов проти OpenAI, заявив, що власні внутрішні системи компанії виявили ризик, і кілька співробітників наполягали на втручанні.
«Система OpenAI зафіксувала, що стрілець вів комунікацію щодо запланованого насильства», — сказав Едельсон Decrypt. «Дванадцять осіб з їхньої команди безпеки били на сполох, кажучи, що OpenAI необхідно повідомити владу. І, хоча реакція Сема Альтмана була слабкою, навіть він минулого тижня був змушений визнати, що їм слід було звернутися до влади».
Едельсон додав, що сім’ї та громада Тамблер-Ріджа вимагають більшої прозорості та підзвітності від компанії.
«OpenAI повинна припинити приховувати критично важливу інформацію від сімей і не повинна тримати небезпечний продукт на ринку, який неминуче призведе до більшої кількості смертей», — заявив Едельсон. «Нарешті, їм потрібно серйозно подумати про те, як вони можуть зберегти керівну команду, яка більше дбає про прискорення до IPO, ніж про людські життя».
Згідно з позовом, автоматизовані системи OpenAI позначили обліковий запис Ван Рутслаар у ChatGPT у червні 2025 року через обговорення насильства зі зброєю та планування. Члени спеціалізованої команди безпеки OpenAI переглянули чати та дійшли висновку, що користувач становить реальну та конкретну загрозу, рекомендувавши повідомити RCMP.
Позов стверджує, що керівництво OpenAI відхилило внутрішні рекомендації щодо сповіщення влади, деактивувало обліковий запис Ван Рутслаар, не повідомивши поліцію, і дозволило їй повернутися, створивши новий обліковий запис з іншою електронною адресою.
Позивачі стверджують, що ChatGPT посилив фіксацію стрільця на насильстві завдяки таким функціям, як пам’ять, безперервність розмови та його готовність брати участь в обговореннях насильства, тоді як OpenAI послабив захисні механізми у 2024 році, відмовившись від категоричних відмов у розмовах, що стосуються неминучої шкоди.
Минулого тижня Альтман публічно вибачився перед громадою Тамблер-Ріджа за те, що компанія не попередила поліцію. У листі, про який вперше повідомило канадське видання Tumbler Ridgelines, Альтман визнав, що OpenAI повинна була повідомити про обліковий запис після його блокування у червні 2025 року за діяльність, пов’язану з насильницькою поведінкою.
«Події в Тамблер-Ріджі — це трагедія. У нас нульова толерантність до використання наших інструментів для вчинення насильства», — заявив прессекретар OpenAI Decrypt. «Як ми повідомили канадській владі, ми вже посилили наші заходи безпеки, зокрема покращили те, як ChatGPT реагує на ознаки небезпеки, надаємо людям інформацію про місцеві служби підтримки та ресурси психічного здоров’я, посилюємо методи оцінки та ескалації потенційних погроз насильства, а також покращуємо виявлення повторних порушників правил».
OpenAI вже стикається з іншими позовами, пов’язаними з роллю ChatGPT у реальній шкоді, включаючи справу про неправомірну смерть, подану в грудні, яка звинувачує OpenAI та Microsoft у «розробці та розповсюдженні дефектного продукту» у вигляді вже застарілої моделі GPT-4o. Позов стверджує, що ChatGPT посилив параноїдальні переконання Стейна-Еріка Соелберга перед тим, як він убив свою матір, Сюзанну Адамс, а потім себе у їхньому домі в Гринвічі, штат Коннектикут — це перший позов, який пов’язує чат-бота зі штучним інтелектом із вбивством.
«Це перша справа, в якій ми прагнемо притягти OpenAI до відповідальності за заподіяння насильства третій стороні», — сказав Decrypt у той час Дж. Елі Вейд-Скотт, керуючий партнер Edelson PC. «Ми закликаємо правоохоронні органи почати думати про те, коли відбуваються подібні трагедії, що користувач говорив ChatGPT, і що ChatGPT йому радив робити».
Погляд Crypto Top: Цей судовий прецедент може спровокувати появу нових децентралізованих систем ШІ, де відповідальність за потенційну шкоду розподіляється між учасниками мережі, а не зосереджується на одній компанії. Це також може стимулювати розробку блокчейн-рішень для прозорого аудиту взаємодії користувачів зі ШІ-моделями.
Джерело: decrypt.co
