Маск зізнався: xAI тренувала Grok на моделях OpenAI

Визнання в федеральному суді є рідкісним підтвердженням використання технік дистиляції, оскільки компанії, що займаються ШІ, конкурують за створення більш потужних і дешевих моделей.

Маск зізнався: xAI тренувала Grok на моделях OpenAI 2

Створіть обліковий запис, щоб зберігати свої статті.Додати в GoogleДодайте Decrypt як джерело за замовчуванням, щоб бачити більше наших історій у Google.

Коротко

  • Ілон Маск заявив, що xAI частково використовувала моделі OpenAI для тренування Grok, згідно з звітом TechCrunch.
  • Метод, відомий як дистиляція, дозволяє компаніям відтворювати поведінку моделі з меншими витратами.
  • Це розкриття відбулося під час судового позову Маска проти OpenAI щодо її переходу до комерційної моделі.

Ілон Маск заявив, що його компанія зі штучного інтелекту xAI частково використовувала моделі OpenAI під час тренування свого чат-бота Grok, згідно з звітом TechCrunch.

Це визнання є рідкісним публічним підтвердженням практики, яка перебуває під зростаючим наглядом, з боку великого розробника ШІ. Це відбувається на тлі розгляду справи Маска проти OpenAI у федеральному суді, де цього тижня розпочався судовий процес, який розглядатиме управління компанією та ширший ландшафт ШІ.

Маск зробив цю заяву в четвер, даючи свідчення у федеральному суді Каліфорнії, де він судиться з OpenAI, її генеральним директором Семом Альтманом та співзасновником Грегом Брокманом. Позов зосереджений на твердженні Маска, що OpenAI відійшла від своєї початкової некомерційної місії.

Під час допиту Маска запитали, чи використовувала xAI техніки дистиляції на моделях OpenAI. За повідомленнями, він відповів “частково” і описав цей підхід як загальноприйняту галузеву практику.

Маск був співзасновником OpenAI у 2015 році разом із Семом Альтманом, Грегом Брокманом, Іллею Суцкевером, Джоном Шульманом та Войцехом Зарембою як некомерційну організацію, що займається розробкою штучного інтелекту на благо людства. Маск покинув компанію у 2018 році.

Дистиляція стосується тренування нової системи ШІ шляхом надсилання запитів до існуючої моделі через її публічний інтерфейс або API та використання цих результатів як навчальних сигналів. У лютому Anthropic звинуватила кілька китайських розробників ШІ у використанні шахрайських облікових записів для отримання великого обсягу відповідей від свого чат-бота Claude для тренування конкуруючих систем. На початку цього місяця Білий дім попереджав про “промислові” кампанії з використанням проксі-рахунків та обхідних шляхів для відтворення можливостей ШІ США.

Свідчення Маска вказують на те, що цей метод використовується американськими компаніями, що займаються ШІ, а не лише іноземними конкурентами.

Юридичні межі залишаються нечіткими. Дистиляція не є явно незаконною, але вона може викликати питання щодо того, чи порушує вона правила платформи або умови використання API.

xAI, запущена в липні 2023 року, вийшла на ринок, де вже були присутні Google, Microsoft та OpenAI — компанії з більшими командами та більш усталеною інфраструктурою. Раніше того ж року Маск та інші технологічні діячі підписали відкритий лист із закликом призупинити на шість місяців розробку більш передових систем ШІ, посилаючись на потенційні ризики.

Заяви Маска свідчать про те, що компанія могла використовувати технологію його колишньої компанії для скорочення розриву.

OpenAI та xAI не надали негайної відповіді на запит Decrypt щодо коментарів.

Погляд Crypto Top: Використання дистиляції для оптимізації моделей ШІ свідчить про зсув у бік більш доступних та ефективних ШІ-рішень, що може прискорити інтеграцію децентралізованих обчислень та ШІ-агентів у Web3-екосистему. Це також може вплинути на динаміку цін токенів, пов’язаних з інфраструктурою ШІ, оскільки попит на ефективні обчислювальні ресурси зростатиме.

Джерело: decrypt.co

No votes yet.
Please wait...

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *