Групи громадських захисників заявляють, що захід, підтриманий OpenAI, обмежить юридичну відповідальність та закріпить вузькі захисти для дітей.

Створіть обліковий запис, щоб зберегти свої статті.Додати в GoogleДодайте Decrypt як ваше улюблене джерело, щоб бачити більше наших історій у Google.
Коротко
- Коаліція груп громадських захисників просить OpenAI відкликати ініціативу Каліфорнії щодо безпеки ШІ.
- Критики стверджують, що ця міра обмежить юридичну відповідальність та послабить захист дітей.
- Хоча OpenAI призупинила кампанію, коаліція стверджує, що зберігає контроль над ініціативою перед ключовими термінами.
Коаліція груп громадських захисників закликає розробника ChatGPT, компанію OpenAI, відкликати ініціативу Каліфорнії, яка, на думку критиків, може послабити захист дітей та обмежити юридичну відповідальність компаній, що займаються штучним інтелектом.
У листі, надісланому до OpenAI в середу та переглянутому Decrypt, група стверджує, що ця міра закріпить вузькі захисти для дітей, обмежить можливість сімей подавати позови та обмежить здатність Каліфорнії посилювати закони про ШІ в майбутньому.
Лист, підписаний понад двома десятками організацій, включаючи некомерційну організацію з політики ШІ Encode AI, Центр гуманних технологій та Центр інформації про електронну конфіденційність, просить OpenAI розпустити свій комітет щодо балотування та відмовитися від пропозиції, поки законодавці працюють над законодавством.
«Головна вимога тут – це відкликання ініціативи OpenAI», — заявив Адам Біллен, співвиконавчий директор Encode AI, у розмові з Decrypt.
Суперечка зосереджена навколо запропонованого «Закону про безпечний ШІ для батьків та дітей», ініціативи Каліфорнії, підтриманої OpenAI та Common Sense Media, яка встановлюватиме правила взаємодії чат-ботів зі штучним інтелектом з неповнолітніми, включаючи вимоги до безпеки та стандарти відповідності.
У листі групи стверджують, що ці правила не відповідають вимогам. Вони зазначають, що міра занадто вузько визначає шкоду, обмежує правозастосування та обмежує можливість сімей подавати позови, коли діти зазнають шкоди.
Але OpenAI контролює саму ініціативу балотування, сказав Біллен.
«OpenAI має повноваження відкликати її або вкладати кошти для збору підписів. Уся юридична влада перебуває в їхніх руках», — сказав він. «Вони фактично не відкликали ініціативу з балотування. Це поширена тактика в Каліфорнії, коли ви висуваєте ініціативу та вкладаєте гроші в комітет».
Лист звертає увагу на визначення «серйозної шкоди» в ініціативі, яке зосереджене на фізичних травмах, пов’язаних із самогубством або насильством, виключаючи низку наслідків для психічного здоров’я, які дослідники та сім’ї називають тривожними.
Він також висвітлює положення, які заборонятимуть батькам та дітям подавати позови відповідно до ініціативи та обмежуватимуть інструменти правозастосування, доступні державним та місцевим чиновникам.
Інша стурбованість стосується того, як пропозиція розглядає користувацькі дані. Групи стверджують, що визначення шифрованого контенту користувача може ускладнити доступ до розмов чат-ботів, які слугували ключовими доказами в недавніх судових процесах.
«Ми розглядаємо це як спробу заблокувати сім’ям можливість розкривати судові журнали чатів своїх загиблих дітей», — сказав Біллен.
Лист також попереджає, що міру буде важко переглянути, якщо вона буде прийнята. Для внесення змін знадобиться дві третини голосів у законодавчому органі, і майбутні зміни будуть прив’язані до таких стандартів, як підтримка «економічного прогресу», що, на думку адвокатів, може обмежити здатність законодавців реагувати на нові ризики.
Біллен заявив, що ініціатива залишається фактором у поточних переговорах у Сакраменто, навіть незважаючи на те, що OpenAI призупинила свої зусилля для її включення до балотування.
«У комітеті є 10 мільйонів доларів, і тоді ви кажете законодавчому органу: якщо ви не зробите те, що ми хочемо, ми вкладемо гроші, зберемо підписи та винесемо це на балотування, і якщо це пройде, це перекриє все, що зробить законодавчий орган», — сказав він. «Отже, по суті, те, що відбувається зараз, це те, що вони намагаються керувати та контролювати дії законодавців штату, використовуючи ініціативу як погрозу, яку вони залишають відкритою».
OpenAI — не єдина компанія, яка стикається з перевіркою щодо шкоди, пов’язаної з чат-ботами. Раніше цього місяця сім’я Джонатана Гаваласа подала позов проти Google, стверджуючи, що Gemini сприяв маренню, яке призвело до насильства та його остаточного самогубства. Однак Біллен зазначив, що підхід OpenAI відображає ширшу закономірність у технологічній галузі.
«Лобістський план, який використовують ці великі компанії, особливо Google, Meta, Amazon, щодо ШІ, — це та ж стратегія, яка раніше використовувалася щодо інших технологічних питань», — сказав він.
Наразі коаліція зосереджена на тому, щоб OpenAI відкликала міру та дозволила законодавцям рухатися вперед через законодавчий процес.
«Дуже важливо, особливо для компаній, які випускають цю технологію, не бути тими, хто пише правила, що їх регулюють, тому що це не означає значущого захисту», — сказав Біллен.
OpenAI не відразу відповіла на запит Decrypt щодо коментаря.
Погляд Crypto Top: Ця суперечка підкреслює зростаючу напруженість між розробниками ШІ та регуляторами, яка може вплинути на майбутнє інтеграції ШІ в блокчейн-протоколи. Можливі нормативні обмеження можуть сповільнити впровадження децентралізованих ШІ-рішень, що вплине на токени, які живлять ці екосистеми.
Джерело: decrypt.co
