Nvidia представила свою найпотужнішу відкриту модель і планує інвестувати 26 мільярдів доларів у розробку передових відкритих моделей, кидаючи виклик домінуванню Китаю у сфері ШІ.
Створіть обліковий запис, щоб зберігати статті.Додати в GoogleДодайте Decrypt як улюблене джерело, щоб бачити більше наших історій у Google.
Коротко
Nvidia випустила Nemotron 3 Super — відкриту модель ШІ з 120 млрд параметрів, оптимізовану для автономних агентів та завдань з надзвичайно довгим контекстом.
Гібридна архітектура Mixture-of-Experts (MoE) Mamba-Transformer забезпечує швидше міркування та більш ніж 5-кратну пропускну здатність при роботі з 4-бітною точністю.
Інвестиції Nvidia у розмірі 26 мільярдів доларів у відкритий ШІ спрямовані на протидію зростанню Китаю в цій галузі.
Nvidia представила Nemotron 3 Super — відкриту модель зі 120 мільярдами параметрів, розроблену для ефективної роботи автономних ШІ-агентів без надмірного навантаження на обчислювальні ресурси.
Це непроста задача. Системи з багатьма агентами генерують значно більше токенів, ніж звичайний чат — кожен виклик інструменту, крок міркування та частина контексту повторно надсилаються з нуля. Це призводить до зростання витрат, дрейфу моделей і втрати агентами їхньої початкової мети або ж зниження точності.
Nemotron 3 Super є відповіддю Nvidia на ці виклики. Модель використовує 12 мільярдів активних параметрів із загальних 120 мільярдів, застосовуючи архітектуру Mixture-of-Experts (MoE). Це дозволяє знизити вартість інференсу, зберігаючи глибину міркувань, необхідну для складних робочих процесів. Модель має вікно контексту до 1 мільйона токенів, що дозволяє агентам утримувати в пам’яті цілий код або майже 750 000 слів.
Для створення моделі Nvidia об’єднала три компоненти, які рідко зустрічаються разом: шари простору станів Mamba-2 (швидша та енергоефективніша альтернатива механізму уваги для обробки довгих послідовностей токенів), шари уваги Transformer для точного пригадування та новий дизайн “Latent MoE”, який стискає ембединги токенів перед маршрутизацією до експертів. Це дозволяє моделі активувати вчетверо більше спеціалізованих модулів за тієї ж обчислювальної вартості.
Introducing NVIDIA Nemotron 3 Super 🎉
Open 120B-parameter (12B active) hybrid Mamba-Transformer MoE model
Native 1M-token context
Built for compute-efficient, high-accuracy multi-agent applications
Plus, fully open weights, datasets and recipes for easy customization and… pic.twitter.com/kMFI23noFc
— NVIDIA AI Developer (@NVIDIAAIDev) March 11, 2026
Модель також була попередньо навчена нативним чином у форматі NVFP4 — форматі Nvidia з 4-бітною плаваючою комою. Це означає, що система навчилася точно працювати в 4-бітній арифметиці з першого ж кроку оновлення градієнтів, а не проходити стиснення після навчання з високою точністю, що часто призводить до втрати продуктивності.
Для контексту: точність моделі вимірюється в бітах. Повна точність, відома як FP32, є золотим стандартом, але її масштабування є надзвичайно дорогим. Розробники часто зменшують точність, щоб заощадити обчислювальні ресурси, намагаючись зберегти корисну продуктивність.
Уявіть це як зменшення 4K зображення до 1080p: картинка на перший погляд виглядає так само, але з меншою деталізацією. Зазвичай, зменшення точності з 32-біт до 4-біт може суттєво погіршити здатність моделі до міркувань. Nemotron уникає цієї проблеми, навчаючись працювати з низькою точністю з самого початку, а не стискаючись до неї пізніше.
Порівняно з попередником, Nemotron 3 Super демонструє більш ніж п’ятикратне збільшення пропускної здатності. Порівняно з конкурентами, він працює у 2,2 рази швидше за GPT-OSS 120B від OpenAI за пропускною здатністю інференсу та у 7,5 рази швидше за Qwen3.5-122B від Alibaba.
Ми провели власне швидке тестування. Здатність моделі до міркувань виявилася на високому рівні, зокрема на запитах, що були навмисно розпливчастими, погано сформульованими або базувалися на невірній інформації. Модель без додаткових інструкцій виявляла незначні помилки в контексті, коректно обробляла математичні та логічні задачі, і не втрачала продуктивність, навіть коли саме запитання було не зовсім точним.
Повний конвеєр навчання є загальнодоступним: вагові коефіцієнти на Hugging Face, 10 трильйонів курованих токенів попереднього навчання, що пройшли через 25 трильйонів загальних токенів під час навчання, 40 мільйонів зразків після навчання та рецепти навчання з підкріпленням у 21 конфігурації середовища. Perplexity, Palantir, Cadence та Siemens вже інтегрують модель у свої робочі процеси.
Ставка у 26 мільярдів доларів
Ця модель може бути лише частиною більшої стратегії. Фінансова звітність за 2025 рік свідчить, що Nvidia планує витратити 26 мільярдів доларів протягом наступних п’яти років на створення відкритих моделей ШІ. Керівники компанії це підтвердили.
Браян Катанзаро, віце-президент з досліджень прикладного глибокого навчання, повідомив Wired, що компанія нещодавно завершила попереднє навчання моделі з 550 мільярдами параметрів. Nvidia випустила свою першу модель Nemotron у листопаді 2023 року, але ця звітність чітко показує, що це вже не побічний проект.
Ці інвестиції є стратегічними, враховуючи, що чіпи Nvidia досі є стандартною інфраструктурою для навчання та роботи передових моделей. Моделі, оптимізовані під її апаратне забезпечення, дають клієнтам вагому причину залишатися з Nvidia, попри зусилля конкурентів з використання іншого обладнання. Але за цим стоїть і більш нагальний тиск: Америка програє гонку відкритих ШІ, і програє швидко.
За даними досліджень OpenRouter та Andreessen Horowitz, частка китайських відкритих моделей у глобальному використанні зросла з ледь 1,2% наприкінці 2024 року приблизно до 30% на кінець 2025 року. За даними Runpod, Qwen від Alibaba витіснив Llama від Meta як найпопулярнішу модель з відкритим кодом для самостійного розміщення. Такі компанії, як Airbnb, використовували її для обслуговування клієнтів. Стартапи по всьому світу будують свої рішення на її основі. Окрім частки ринку, таке широке впровадження створює залежності від інфраструктури, які важко змінити.
Хоча гіганти США, такі як OpenAI, Anthropic та Google, зберігають свої найкращі моделі за закритими API, китайські лабораторії від DeepSeek до Alibaba наповнюють відкриту екосистему. Meta була єдиним великим американським гравцем, що конкурував у відкритому доступі з Llama, але Цукерберг нещодавно натякнув, що компанія може не зробити майбутні моделі повністю відкритими.
Розрив між “найкращою пропрієтарною моделлю” та “найкращою відкритою моделлю” раніше був величезним і на користь Америки. Зараз цей розрив дуже малий, а відкритий сегмент все більше контролюється Китаєм.
Incredible graph. In just one year, China completely overtook the U.S. in free AI models.
Not a single U.S. model in the top 5 today when last year the top 3 were all American. pic.twitter.com/34ErpBv8rg
— Arnaud Bertrand (@RnaudBertrand) October 14, 2025
Існує також загроза з боку апаратного забезпечення. Очікується випуск нової моделі DeepSeek, і, за чутками, вона була навчена виключно на чіпах, виготовлених Huawei — компанією, що перебуває під санкціями. Якщо це підтвердиться, це дасть розробникам по всьому світу, особливо в Китаї, вагому причину почати тестувати обладнання Huawei. Китайська Ziphu AI вже робить це.
Це сценарій, якого Nvidia найбільше прагне уникнути: китайські відкриті моделі та китайські чіпи створюють екосистему, яка повністю не потребує Nvidia.
Погляд Crypto Top: Впровадження таких потужних і ефективних ШІ-моделей, як Nemotron 3 Super, може значно підвищити складність та масштабованість децентралізованих обчислювальних мереж. Це також може стимулювати розвиток нових застосувань для токенів, пов’язаних з ШІ, таких як FET або TAO, через зростання попиту на децентралізовані ресурси для навчання та інференсу.