OpenAI пропонує план захисту дітей від експлуатації за допомогою ШІ

OpenAI представляє план безпеки для боротьби з використанням ШІ у створенні матеріалів сексуального насильства над дітьми.

OpenAI пропонує план захисту дітей від експлуатації за допомогою ШІ 2

Створити акаунт, щоб зберегти статті.Додати в GoogleДодайте Decrypt як джерело за вибором, щоб бачити більше наших історій у Google.

Коротко

  • OpenAI опублікувала «План безпеки дітей», що стосується експлуатації дітей за допомогою ШІ.
  • Фреймворк зосереджений на реформах законодавства, покращенні координації звітування та створенні захисних механізмів у системах ШІ.
  • Пропозиція розроблена за участю груп із захисту дітей, генеральних прокурорів та некомерційних організацій.

Прагнучи протидіяти зростанню експлуатації дітей за допомогою штучного інтелекту, OpenAI в середу опублікувала план політики, що окреслює нові заходи безпеки, які галузь може вжити для припинення використання ШІ у створенні матеріалів сексуального насильства над дітьми.

У рамках цього плану OpenAI пропонує правові, операційні та технічні заходи, спрямовані на посилення захисту від зловживань за допомогою ШІ та покращення координації між технологічними компаніями та слідчими органами.

«Експлуатація дітей є однією з найактуальніших проблем цифрової епохи», — зазначила компанія. «ШІ стрімко змінює як спосіб виникнення цих шкод, так і шляхи їх масштабованого вирішення в межах галузі».

OpenAI повідомила, що пропозиція враховує відгуки від організацій, які працюють у сфері захисту дітей та онлайн-безпеки, зокрема Національного центру з питань зниклих безвісти та експлуатованих дітей, а також Альянсу генеральних прокурорів та його цільової групи з питань ШІ.

«Генеративний ШІ прискорює злочинність, пов’язану з експлуатацією дітей в Інтернеті, в глибоко тривожний спосіб — знижуючи бар’єри, збільшуючи масштаби та уможливлюючи нові форми шкоди», — заявила президент і генеральний директор Національного центру з питань зниклих безвісти та експлуатованих дітей Мішель ДеЛоне. «Водночас Національний центр з питань зниклих безвісти та експлуатованих дітей заохочений бачити, як такі компанії, як OpenAI, розмірковують над тим, як ці інструменти можуть бути розроблені більш відповідально, з вбудованими з самого початку захисними механізмами».

OpenAI стверджує, що цей фреймворк поєднує правові стандарти, галузеві системи звітності та технічні засоби безпеки в моделях ШІ. Компанія зазначає, що ці заходи спрямовані на більш раннє виявлення ризиків експлуатації та підвищення підзвітності на всіх онлайн-платформах.

План визначає сфери для дій, зокрема оновлення законодавства для боротьби з матеріалами сексуального насильства над дітьми, створеними або зміненими за допомогою ШІ, покращення способів звітування про сигнали зловживань онлайн-провайдерами та координації з слідчими органами, а також вбудовування механізмів безпеки в системи ШІ, призначені для запобігання їх неправильному використанню.

«Жодне окреме втручання не може вирішити цю проблему самостійно», — пише компанія. «Цей фреймворк об’єднує правові, операційні та технічні підходи для кращого виявлення ризиків, прискорення реагування та підтримки підзвітності, одночасно забезпечуючи посилення правоохоронних органів у міру розвитку технологій».

Цей план з’являється на тлі зростання стурбованості захисників прав дітей тим, що системи генеративного ШІ, здатні створювати реалістичні зображення, можуть бути використані для створення маніпульованих або синтетичних зображень неповнолітніх. У лютому ЮНІСЕФ закликав уряди країн світу ухвалити закони, що криміналізують створення за допомогою ШІ матеріалів сексуального насильства над дітьми.

У січні Європейська комісія розпочала офіційне розслідування щодо того, чи порушила X (раніше Twitter) правила ЄС щодо цифрових послуг, не запобігши генерації незаконного контенту власною моделлю ШІ платформи Grok. Розслідування також розпочали регулятори у Великій Британії та Австралії.

Зазначаючи, що самі лише закони не зупинять поширення зловживань за допомогою ШІ, OpenAI підкреслює, що посилені галузеві стандарти будуть необхідні, оскільки системи ШІ стають все більш потужними.

«Шляхом переривання спроб експлуатації на ранніх стадіях, покращення якості сигналів, що надсилаються правоохоронним органам, та посилення підзвітності в усій екосистемі, цей фреймворк має на меті запобігти шкоді до її виникнення та забезпечити швидший захист дітей, коли виникають ризики», — заявили в OpenAI.

Погляд Crypto Top: Інтеграція подібних протоколів безпеки ШІ в децентралізовані мережі може створити нові виклики, але й відкрити можливості для доказу безпечного використання ШІ-агентів у Web3. Це також може призвести до появи спеціалізованих токенів, що стимулюють розробку та впровадження безпечних ШІ-моделей.

Джерело: decrypt.co

No votes yet.
Please wait...

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *