Meta-AI: Штучний інтелект генерує хвилю хибних доносів, заважаючи розслідуванням дитячого насильства.

Офіцери ICAC стверджують, що звіти, згенеровані ШІ, перевантажують слідчих і уповільнюють розслідування, тоді як Meta заперечує ці заяви.

Meta-AI: Штучний інтелект генерує хвилю хибних доносів, заважаючи розслідуванням дитячого насильства. 2

Створіть обліковий запис, щоб зберегти свої статті.Додати в GoogleЗробіть Decrypt вашим улюбленим джерелом, щоб бачити більше наших історій у Google.

Коротко

  • Офіцери ICAC стверджують, що підказки ШІ від Meta перевантажують слідчих неякісними звітами.
  • Це відбувається на тлі звинувачень у позові штату Нью-Мексико, який стверджує, що ШІ Meta ускладнює розслідування дитячої експлуатації.
  • Meta заперечила, заявивши, що швидко співпрацює з правоохоронними органами та перевіряє звіти перед поданням.

Використання штучного інтелекту (ШІ) компанією Meta для моніторингу своїх платформ генерує великі обсяги низькоякісних звітів, які виснажують ресурси та уповільнюють розслідування випадків жорстокого поводження з дітьми, згідно зі звітом The Guardian.

Ця новина з’явилася на тлі свідчень представників правоохоронних органів Нью-Мексико минулого тижня, які заявили, що звіти, згенеровані ШІ, перевантажують слідчих і уповільнюють розслідування випадків дитячої експлуатації.

Офіцери програми Task Force з боротьби зі злочинами в Інтернеті проти дітей (ICAC) конкретно вказали на автоматизовані системи Meta, заявивши, що вони генерують тисячі непридатних для використання підказок щомісяця, які надсилаються до правоохоронних органів.

«Ми отримуємо багато підказок від Meta, які, по суті, є сміттям», — свідчив Бенджамін Звібель, спеціальний агент цільової групи ICAC у Нью-Мексико, під час судового процесу штату проти компанії.

Інший офіцер ICAC, який побажав залишитися неназваним, повідомив The Guardian, що кількість кіберпідказок у відділі подвоїлася з 2024 по 2025 рік.

«Це доволі приголомшливо, тому що ми отримуємо так багато звітів, але якість звітів справді низька з точки зору нашої здатності вживати серйозних заходів», — сказав він.

У заяві, наданій Decrypt, речник Meta заявив, що компанія давно співпрацює з правоохоронними органами, і зазначив, що Міністерство юстиції та Національний центр з питань зниклих безвісти та експлуатованих дітей (NCMEC) схвалили її процес звітності.

«У 2024 році ми отримали понад 9 000 екстрених запитів від американських органів влади та обробили їх в середньому за 67 хвилин, а ще швидше у випадках, пов’язаних з безпекою дітей та самогубством», — заявив речник.

«Відповідно до застосовного законодавства, ми також повідомляємо NCMEC про очевидні зображення сексуальної експлуатації дітей та підтримуємо їх у пріоритизації звітів, допомагаючи створювати їхні інструменти управління справами, а також маркуючи кіберпідказки, щоб вони знали, які з них є терміновими», — додав він.

Проте офіцери ICAC стверджують, що деякі звіти, надіслані Meta, не мають кримінального характеру, а інші не містять достовірних доказів, необхідних для ведення справи.

Збільшення кількості звітів пов’язане з Законом про звітування (Report Act), який був підписаний як закон у травні 2024 року і розширив вимоги до звітності, включивши до них заплановане або неминуче насильство, торгівлю дітьми в сексуальних цілях та пов’язану з цим експлуатацію, а також вимагаючи від компаній довше зберігати докази.

За статистикою

Meta залишається найбільшим джерелом звітів до CyberTipline NCMEC, на нього припадає близько двох третин із 20,5 мільйонів підказок, отриманих у 2024 році, порівняно з 36,2 мільйонами у 2023 році. Зниження частково пояснюється змінами у практиці звітності Meta.

У своєму звіті про цілісність за серпень 2025 року Meta повідомила, що Facebook, Instagram та Threads надіслали понад 2 мільйони звітів CyberTip до NCMEC у другому кварталі 2025 року. З них понад 528 000 стосувалися неналежних взаємодій з дітьми, а понад 1,5 мільйона — обміну або повторного обміну матеріалами сексуального насильства над дітьми.

Незважаючи на ці цифри, Джей Бі Бранч, адвокат з питань політики в Public Citizen, заявив, що зростання залежності від ШІ зробило Закон про звітування менш ефективним для слідчих, які розглядають справи, стверджуючи, що хоча алгоритми давно допомагали зменшити навантаження модераторів, людські рецензенти були найефективнішим фільтром.

«Частина проблеми полягає в тому, що багато з цих технологічних компаній звільнили модераторів контенту та замінили їх функціями безпеки на основі ШІ», — сказав Бранч Decrypt. «В результаті надмірна обережність призводить до надлишку хибних спрацьовувань».

Раніше, за словами Бранча, у ланцюжку перевірки було більше людських рецензентів, які могли виявляти та видаляти контент, що не вимагав ескалації.

«Оскільки ці компанії усунули людських модераторів або рецензентів контенту з ланцюжка, пропускається значно більше, тому що вони хочуть діяти з надмірною обережністю», — сказав він. «Вони, по суті, закидають ширшу мережу і ловлять речі, які навіть не кваліфікуються, і вони сильно покладаються на інструменти ШІ для цього».

Слідчі стверджують, що наслідки помилкових підказок, згенерованих ШІ, вже відчуваються всередині цільових груп, які їх розглядають.

«Це вбиває моральний дух. Ми тонемо в підказках, а хочемо вийти і робити цю роботу», — нібито сказав офіцер ICAC. «У нас немає персоналу, щоб підтримувати це. Немає жодного способу, яким ми могли б впоратися з цим потоком, що надходить».

Погляд Crypto Top: Проблеми з якістю даних, згенерованих ШІ, для правоохоронних органів підкреслюють критичну потребу в надійних, перевірених джерелах даних для децентралізованих ШІ-мереж. Це може стимулювати розробку більш складних механізмів верифікації даних на блокчейні, щоб ШІ-агенти могли отримувати доступ до достовірної інформації.

Джерело: decrypt.co

No votes yet.
Please wait...

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *