Розробник Claude, Anthropic, створив PAC, фінансований співробітниками, на тлі судової суперечки з Білим домом та зростаючої уваги до ШІ в передвиборчий рік.
Створити обліковий запис, щоб зберегти свої статті.Додати в GoogleДодайте Decrypt як джерело за замовчуванням, щоб бачити більше наших історій у Google.
Коротко
Anthropic подала документи до Федеральної виборчої комісії (FEC) для створення політичного комітету дії (PAC), фінансованого співробітниками, під назвою AnthroPAC.
Цей крок став наслідком суперечки з адміністрацією Трампа щодо військового використання моделі ШІ Claude.
Подання документів свідчить про підготовку компаній, що займаються ШІ, до більш прямої участі в політиці США.
Гігант у сфері штучного інтелекту Anthropic подав документи до Федеральної виборчої комісії для створення політичного комітету дії (PAC), сигналізуючи про глибше занурення в політику США на тлі посилення боротьби за політику щодо ШІ та власної триваючої битви з Білим домом.
Компанія з Сан-Франциско зареєструвала Політичний комітет дії Anthropic PBC, відомий як AnthroPAC, у поданні, зробленому в п’ятницю. Комітет структурований як окремий відокремлений фонд, пов’язаний з компанією, і уповноважений робити політичні пожертви, що фінансуються внесками співробітників. Згідно зі звітом Bloomberg, ці внески обмежені 5 000 доларів на одного співробітника.
Політичні комітети дії (PAC), що фінансуються співробітниками, дозволяють компаніям збирати добровільні внески від співробітників і розподіляти ці кошти кандидатам і політичним комітетам.
Інші технологічні компанії, які створили політичні PAC, включаючи Google, Microsoft та Amazon. У 2024 році ці три PAC самостійно внесли понад 2,3 мільйона доларів політичним кандидатам США, згідно з даними про фінансування кампаній від некомерційної дослідницької групи OpenSecrets. Хоча внески надходили як республіканцям, так і демократам, під час виборчої кампанії 2024 року пожертви переважно спрямовувалися на користь кандидатів від Республіканської партії.
Крок Anthropic відбувається на тлі загострення конфлікту з адміністрацією президента Дональда Трампа щодо військового використання її систем ШІ.
У лютому Трамп наказав федеральним агентствам припинити використання технологій Anthropic після суперечки між компанією та Пентагоном щодо того, як військовим може бути розгорнуто її модель ШІ Claude. Незважаючи на ультиматум Міністерства оборони США, Anthropic відмовилася виконати вимоги Пентагону щодо скасування заходів безпеки, які забороняють використання системи для масового внутрішнього спостереження або повністю автономної летальної зброї.
У березні Anthropic подала федеральний позов, оскаржуючи рішення уряду класифікувати компанію як “ризик ланцюга постачання” національної безпеки, що забороняло підрядникам Пентагону вести бізнес з фірмою. Компанія стверджувала, що цей крок був відплатою за її відмову пом’якшити обмеження на військове використання її ШІ.
Минулого тижня окружний суддя США Ріта Лін видала попередню судову заборону, яка зупиняє виконання цього рішення, вважаючи, що дії уряду, ймовірно, порушили права Anthropic згідно з Першою поправкою та правом на належне юридичне розслідування.
Anthropic публічно не коментувала створення PAC. Тим не менш, це відбувається на тлі зростаючої важливості законодавства щодо штучного інтелекту у Вашингтоні напередодні проміжних виборів у США, і підкреслює, як розробники ШІ прагнуть впливати на політику в контексті 2027 року. У лютому звіт CNBC повідомляв, що у 2026 році Anthropic пожертвувала 20 мільйонів доларів організації Public First Action, групі, що підтримує зусилля з розробки заходів безпеки для ШІ.
Anthropic не надала негайної відповіді на запит Decrypt щодо коментарів.
Погляд Crypto Top: Хоча ця новина безпосередньо не пов’язана з криптографією, вона відображає зростаючу необхідність у децентралізованих системах управління та прийняття рішень, де складні ШІ-моделі можуть працювати з більшою прозорістю та незалежністю від централізованих політичних чи корпоративних інтересів.