Anthropic та OpenAI: Технологічний перегони змушують компанії послабити мову безпеки ШІ

Зміни у зобов’язаннях щодо безпеки ШІ: Anthropic та OpenAI адаптуються до конкурентного середовища

Anthropic та OpenAI: Технологічний перегони змушують компанії послабити мову безпеки ШІ 2

Створити обліковий запис, щоб зберегти ваші статті.Додати в GoogleДодайте Decrypt як вибране джерело, щоб бачити більше наших історій у Google.

Коротко

  • TIME повідомляє, що Anthropic відмовився від зобов’язання зупинити тренування ШІ без гарантованих заходів безпеки.
  • OpenAI також вилучив слово “безпечно” зі своєї місії після реструктуризації в комерційну організацію.
  • Експерти вважають, що ці зміни відображають політичні, економічні та інтелектуальні зрушення.

Anthropic вилучив ключове зобов’язання щодо безпеки зі своєї Політики відповідального масштабування, згідно з повідомленням TIME. Ці зміни послаблюють обіцянку, яка раніше забороняла розробнику Claude AI тренувати передові системи штучного інтелекту без наявних гарантованих заходів безпеки.

Цей крок змінює позиціонування компанії у гонці зі штучним інтелектом проти конкурентів OpenAI, Google та xAI. Anthropic довгий час позиціонував себе як одну з найбільш безпеко-орієнтованих лабораторій у галузі, але згідно з переглянутою політикою, компанія більше не обіцяє зупиняти тренування, якщо пом’якшення ризиків не буде повністю впроваджено.

«Ми вважали, що зупинка тренування моделей ШІ насправді нікому не допоможе», – заявив головний науковий директор Anthropic Джаред Каплан у коментарі TIME. «Ми не відчували, що в умовах швидкого розвитку ШІ має сенс брати на себе односторонні зобов’язання… якщо конкуренти випереджають нас».

Ця зміна відбувається на тлі публічного конфлікту Anthropic з міністром оборони США Пітом Гейні щодо відмови надати Пентагону повний доступ до Claude, що робить його єдиною великою AI-лабораторією (серед Google, xAI, Meta та OpenAI), яка зайняла таку позицію.

Едвард Гейст, старший науковий співробітник з політики в RAND Corporation, зазначив, що рання постановка питання про «безпеку ШІ» виникла в специфічній інтелектуальній спільноті, яка існувала до появи сучасних великих мовних моделей (LLM).

«Кілька років тому існувала галузь безпеки ШІ», – сказав Гейст у коментарі Decrypt. «Безпека ШІ асоціювалася з певним набором поглядів, що випливали зі спільноти людей, які переймалися потужним ШІ ще до появи LLM».

Гейст додав, що ранні прихильники безпеки ШІ виходили з кардинально іншого уявлення про те, яким буде передовий штучний інтелект.

«Вони сформулювали проблему таким чином, що в деяких аспектах передбачали щось якісно відмінне від сучасних LLM, на краще чи на гірше», – зазначив Гейст.

Гейст вважає, що зміна термінології також є сигналом для інвесторів та політиків.

«Частково це сигнал різним зацікавленим сторонам, що багато з цих компаній хочуть створити враження, ніби вони не стримуються в економічній конкуренції через занепокоєння щодо «безпеки ШІ»», – сказав він, додавши, що сама термінологія змінюється відповідно до часу.

Anthropic – не єдина компанія, яка переглядає свою політику безпеки.

Що визначає безпеку ШІ?

У нещодавньому звіті некомерційної новинної організації The Conversation зазначається, що OpenAI також змінила свою місію у податковій декларації за 2024 рік, вилучивши слово «безпечно».

Попередня заява компанії обіцяла створити загальний штучний інтелект, який «безпечно приносить користь людству, не обмежуючись потребою генерувати фінансовий прибуток». Оновлена версія тепер стверджує, що її мета – «забезпечити, щоб загальний штучний інтелект приносив користь усьому людству».

«Проблема з терміном «безпека ШІ» полягає в тому, що ніхто, здається, не знає точно, що він означає», – зазначив Гейст. «Хоча й термін «безпека ШІ» також був предметом дискусій».

Нова політика Anthropic акцентує на заходах прозорості, таких як публікація «дорожніх карт безпеки на передових рубежах» та регулярних «звітів про ризики», і стверджує, що компанія затримає розробку, якщо вважатиме, що існує значний ризик катастрофи.

Зміни в політиці Anthropic та OpenAI відбуваються на тлі посилення їхніх комерційних позицій.

Раніше цього місяця Anthropic повідомив про залучення 30 мільярдів доларів при оцінці приблизно в 380 мільярдів доларів. Водночас OpenAI завершує раунд фінансування за підтримки Amazon, Microsoft та Nvidia, який може сягнути 100 мільярдів доларів.

Anthropic та OpenAI, поряд з Google та xAI, отримали прибуткові державні контракти з Міністерством оборони США. Однак для Anthropic цей контракт виглядає сумнівним, оскільки Пентагон розглядає можливість розірвання зв’язків з AI-фірмою через скарги на доступ.

З огляду на приплив капіталу в сектор та посилення геополітичної конкуренції, Хамза Чаудхрі, керівник напрямку ШІ та національної безпеки в Інституті майбутнього життя, вважає, що зміна політики відображає зміну політичної динаміки, а не спробу отримати бізнес від Пентагону.

«Якби це було так, вони б просто відступили перед тим, що сказав Пентагон тиждень тому», – заявив Чаудхрі Decrypt. «Даріо [Амодеї] не приїхав би на зустріч».

Натомість, Чаудхрі вважає, що перегляд політики відображає поворотний момент у тому, як AI-компанії говорять про ризики, в умовах зростаючого політичного тиску та конкурентних ставок.

«Anthropic тепер говорить: «Подивіться, ми не можемо постійно говорити про безпеку, ми не можемо безумовно призупинятися, і ми будемо наполягати на набагато більш легке регулювання»», – додав він.

Погляд Crypto Top: Зміна пріоритетів великих AI-розробників, що акцентують на комерційній конкуренції, ймовірно, стимулюватиме децентралізовані AI-мережі та блокчейн-рішення для забезпечення прозорості та безпеки. Це може призвести до зростання утилітарності токенів, пов’язаних з децентралізованими обчислювальними потужностями та AI-сервісами, оскільки вони стануть ключовими для доступу до надійних та незалежних AI-рішень.

Джерело: decrypt.co

No votes yet.
Please wait...

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *