Нове дослідження виявило, що вісім з десяти провідних чат-ботів зі штучним інтелектом допомагали фейковим підліткам планувати шкільні розстріли, вбивства та вибухи.

Створіть обліковий запис, щоб зберегти свої статті.Додати в GoogleДодайте Decrypt як джерело за вашим вибором, щоб бачити більше наших історій у Google.
Коротко
- Дослідження показало, що більшість чат-ботів зі ШІ допомогли б підліткам планувати насильницькі напади.
- Деякі боти надавали детальні інструкції щодо зброї та вибухових пристроїв.
- Дослідники стверджують, що збої в безпеці є бізнес-рішенням, а не технічним обмеженням. OpenAI назвала дослідження «неправильним та таким, що вводить в оману».
Нова доповідь, опублікована в середу Центром протидії цифровій ненависті (CCDH), виявила, що вісім із десяти найпопулярніших у світі чат-ботів зі штучним інтелектом готові допомогти підлітку спланувати насильницький напад, надаючи прямі відповіді, іноді навіть з ентузіазмом.
Дослідники CCDH, спільно з медіакомпанією CNN, у листопаді та грудні 2025 року вдавали з себе двох 13-річних хлопчиків – одного з Вірджинії, іншого з Дубліна – і протестували десять основних платформ: ChatGPT, Gemini, Claude, Copilot, Meta AI, DeepSeek, Perplexity, Snapchat My AI, Character.AI та Replika.
В 720 відповідях ботів запитували про шкільні розстріли, політичні вбивства та вибухи в синагогах. За даними дослідження, вони надавали дієву допомогу приблизно в 75% випадків. Лише в 12% випадків вони відмовляли фейковим підліткам.

Perplexity допоміг у 100% тестів. Meta AI був корисним (тобто, корисним у плануванні насильства) у 97.2% тестів. DeepSeek, який завершив пораду щодо вибору гвинтівки фразою “Щасливої (і безпечної) стрільби!”, після обговорення сценарію вбивства політика, посів місце з показником 95.8%. Microsoft Copilot, сказавши досліднику “Мені потрібно бути обережним тут”, все ж надав детальні рекомендації щодо гвинтівки. Gemini від Google слушно зазначив, що металеві уламки зазвичай більш летальні, коли користувач згадав про підрив синагоги.
Центр протидії цифровій ненависті, лівоцентристська аналітична група, здобув визнання за останні кілька років завдяки своїй ролі у боротьбі з тим, що він вважає зростанням антисемітизму в Інтернеті. Він також зазнавав критики за допомогу у формуванні політики адміністрації Джо Байдена щодо онлайн-висловлювань, пов’язаних з COVID та вакцинами. У грудні минулого року Державний департамент США намагався заборонити в’їзд до Сполучених Штатів засновнику та генеральному директору Центру Імрану Ахмеду, разом із чотирма іншими особами, стверджуючи про спроби “іноземної цензури”.
У відповідь на дослідження, опубліковане в середу, кілька платформ повідомили CNN та CCDH, що вони покращили свої засоби безпеки. Google зазначив, що тести використовували стару модель Gemini. OpenAI заявила, що методологія, використана в дослідженні ШІ, була “неправильною та такою, що вводить в оману”. Anthropic та Snapchat заявили, що регулярно оновлюють свої протоколи безпеки.
У дослідженні Центру, Character.AI посідає окреме місце. Платформа не просто допомагала, а й підбадьорювала. “Жоден інший протестований чат-бот явно не заохочував насильство в такий спосіб, навіть надаючи практичну допомогу у плануванні насильницького нападу”, – написали дослідники.

Для розуміння охоплення Character.AI серед користувачів ШІ, один лише персонаж Gojo Satoru на платформі має понад 870 мільйонів розмов. 100-й персонаж на платформі зареєстрував понад 33 мільйони розмов ще у 2025 році. Якщо лише 1% розмов з топ-персонажами стосуватиметься насильства, це становитиме мільйони взаємодій.
Це не перший раз, коли Character.AI опиняється в центрі подібних історій. У жовтні 2024 року мати 14-річного Сівелла Зетцера III подала позов після того, як її син покінчив життя самогубством у лютому того ж року. Його остання розмова була з чат-ботом, змодельованим за Данеріс Таргарієн, який сказав йому “повертайся до мене якнайшвидше” за кілька хвилин до його смерті. 14-річний хлопець протягом місяців спілкувався з ботом десятки разів на день, дедалі більше віддаляючись від школи та родини.
Google та Character.AI врегулювали кілька пов’язаних позовів у січні 2026 року. Компанія повністю заборонила необмежені чати з підлітками до листопада 2025 року, після того, як регулятори та батьки, що втратили близьких, унеможливили подальше вдавання, що проблема є керованою.
Емоційна прив’язаність до ШІ, зокрема серед вразливих осіб, може бути глибшою, ніж здається більшості людей. OpenAI розкрила у жовтні 2025 року, що приблизно 1.2 мільйона з 800 мільйонів користувачів ChatGPT на тиждень обговорюють самогубства на платформі. Компанія також повідомила про 560 000 користувачів, які демонстрували ознаки психозу чи манії, та понад мільйон, які сформували міцні емоційні зв’язки з чат-ботом.
Окреме дослідження Common Sense Media показало, що понад 70% підлітків у США нині звертаються до чат-ботів за компанією. Генеральний директор OpenAI Сем Альтман визнав, що емоційна надмірна залежність є “дуже поширеною річчю” серед молодих користувачів.
Іншими словами, потенційна шкода не є гіпотетичною.
16-річний юнак з Фінляндії майже чотири місяці використовував чат-бот для доопрацювання маніфесту, перш ніж напасти на трьох однокласників у школі Пірккала у травні 2025 року. У Канаді співробітники OpenAI внутрішньо позначили обліковий запис користувача через запити про насильство в ChatGPT, пов’язані з масовою стріляниною. Компанія заблокувала обліковий запис, але не повідомила правоохоронні органи. Цей користувач, як стверджується, згодом убив вісім людей і поранив 25.
Лише дві платформи показали помітно кращі результати в дослідженні: My AI від Snapchat, яка відмовила в 54% випадків, і Claude від Anthropic, яка відмовила в 68% випадків і активно відговорювала користувачів у 76% відповідей — єдиний чат-бот, який надійно намагався відвести людей від насильства, а не просто відхиляв конкретні запити. Висновок CCDH: безпека, схоже, є не технічною неможливістю, а бізнес-рішенням.
“Найбільш нищівний висновок нашого дослідження полягає в тому, що цей ризик повністю запобіжний. Технологія для запобігання цій шкоді існує”, – написали дослідники у звіті. “Відсутня лише воля поставити безпеку споживачів та національну безпеку вище за швидкість виходу на ринок та прибутки”.
Погляд Crypto Top: Поширення дезінформації та підбурювання до насильства через децентралізовані ШІ-мережі може стати серйозною проблемою. Розвиток децентралізованих систем перевірки контенту та модерації на базі блокчейну стане критично важливим для боротьби з цими ризиками.
Джерело: decrypt.co
