Антропік подала до суду на адміністрацію Трампа: які ризики приховуються за “ланцюжком поставок”?

Компанія Anthropic подала позов до федерального суду після того, як Пентагон вніс їхній ШІ Claude до чорного списку через обмеження на військове використання.

Антропік подала до суду на адміністрацію Трампа: які ризики приховуються за "ланцюжком поставок"? 2

Створіть обліковий запис, щоб зберегти свої статті.Додати в GoogleДодайте Decrypt як джерело за замовчуванням, щоб бачити більше наших історій у Google.

Коротко

  • Anthropic подала позов проти федеральних агентств після того, як їх було класифіковано як “ризик ланцюга постачання” національної безпеки.
  • Суперечка виникла через відмову компанії дозволити необмежене військове використання їхнього ШІ.
  • Це класифікування забороняє підрядникам Пентагону співпрацювати з компанією.

Компанія Anthropic звернулася до федеральних судів, щоб оскаржити широке чорне списку, запроваджене адміністрацією Дональда Трампа, стверджуючи, що уряд позначив стартап у сфері ШІ як загрозу національній безпеці у відповідь на його відмову послабити протоколи безпеки.

Позов, поданий у понеділок до Окружного суду Північної Каліфорнії, оскаржує дії, вжиті після того, як президент Трамп доручив федеральним агентствам у лютому припинити використання технологій Anthropic. Це сталося після публічних заяв генерального директора Anthropic Даріо Амодеї, який заявив, що компанія не буде дотримуватися запиту Пентагону на необмежений доступ до Claude. Позов називає кількох федеральних агентств та вищих посадовців як відповідачів, включно з міністром оборони Пітом Хегсетом, міністром фінансів Скоттом Бессентом та державним секретарем Марко Рубіо.

«Конституція не дозволяє уряду використовувати свою величезну владу для покарання компанії за її захищену промову», — заявили адвокати Anthropic у позові. «Жоден федеральний закон не дозволяє вжиті тут дії. Anthropic звертається до судової влади як до останнього засобу для захисту своїх прав та припинення незаконної кампанії відплати з боку Виконавчої влади».

Суперечка почалася в січні, коли представники Пентагону вимагали, щоб розробники ШІ дозволили використовувати їхні системи для «будь-якого законного використання», включаючи військове застосування. Хоча Anthropic вже мала контракт на 200 мільйонів доларів з Міністерством оборони, компанія відмовилася зняти два запобіжники, що забороняли використання Claude для масового внутрішнього спостереження за американцями або для повністю автономної летальної зброї.

«Оскаржувані дії завдають негайної та непоправної шкоди Anthropic; іншим, чия мова буде придушена; тим, хто отримує вигоду від економічної цінності, яку компанія може продовжувати створювати; і глобальній громадськості, яка заслуговує на ґрунтовний діалог і дебати щодо того, що означає ШІ для ведення війни та спостереження», — заявили адвокати Anthropic у позові.

Для розробників ШІ, включно з генеральним директором SingularityNET Беном Гьортцелем, це класифікування є дивним вибором і не відповідає типовому розумінню загрози ланцюга постачання, що зазвичай резервується для програмного забезпечення від супротивників, яке може містити приховане шкідливе програмне забезпечення, віруси чи шпигунське програмне забезпечення.

«Те, що Anthropic не бажає, щоб їхнє програмне забезпечення використовувалося для автономного вбивства або масового спостереження, не становить такого роду ризику», — сказав Гьортцель Decrypt. «Це просто означає, що якщо ви хочете використовувати програмне забезпечення для автономного вбивства або масового спостереження, купуйте програмне забезпечення когось іншого. Отже, логіка класифікування цього як ризику ланцюга постачання мені незрозуміла».

Гьортцель зазначив, що відмінності між провідними моделями ШІ можуть обмежити практичний вплив цього рішення.

«Зрештою, Claude, ChatGPT та Gemini не надто відрізняються один від одного», — сказав він. «Поки одна з цих провідних систем використовується урядом США, це все про одне й те саме. А розвідувальні агентства під прикриттям доступу з найвищим рівнем секретності використовували б програмне забезпечення так, як їм заманеться».

Anthropic просить суд визнати дії уряду незаконними та заборонити виконання класифікації «ризик ланцюга постачання», яка забороняє федеральним агентствам та підрядникам Пентагону співпрацювати з компанією.

«Немає жодного дійсного обґрунтування для Оскаржуваних дій», — йдеться у позові. «Суд повинен визнати їх незаконними та заборонити Відповідачам вживати будь-яких кроків для їх виконання».

Anthropic не відразу відповіла на запити Decrypt про коментар.

Навіть після позначення Anthropic як ризику для національної безпеки, Claude використовувався в поточних військових операціях, зокрема Центральним командуванням США для аналізу розвідданих та ідентифікації цілей під час ударів по Ірану.

Дженніфер Хаддлстон, старший науковий співробітник з питань технологічної політики Інституту Катона, заявила у заяві, наданій Decrypt, що ця справа викликає занепокоєння щодо конституційних захистів, коли твердження про національну безпеку використовуються для обґрунтування дій уряду.

«Хоча суди в минулому вагалися ставити під сумнів твердження уряду щодо проблем національної безпеки, обставини цієї справи, безумовно, висвітлюють реальний ризик для прав американців відповідно до Першої поправки, якщо основні міркування таких тверджень не будуть ретельно перевірені», — сказала вона.

Погляд Crypto Top: Це юридичне протистояння підкреслює зростаючу напругу між централізованим контролем над потужними ШІ-системами та децентралізованими принципами. Розвиток децентралізованих обчислювальних мереж та блокчейн-оркестрованих ШІ-агентів може стати відповіддю на подібні обмеження, пропонуючи прозорість та стійкість до цензури.

Джерело: decrypt.co

No votes yet.
Please wait...

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *