NVIDIA щойно розіграла найбільшу пастку в історії технологій, і ніхто цього не помітив

💡 Усі статті, обговорення, новини про AI — в одному місці. Приєднуйтесь до AI спільноти!

Протягом років AWS, Google та Microsoft намагалися втекти — Graviton, TPU, Maia. Мільярди були витрачені на створення їхніх «вбивць NVIDIA».

Але поки вони займалися виробництвом чипів, NVIDIA будувала тканину (fabric).

NVLink — це не просто швидша мережа. Це єдиний інтерконект, який справді масштабується в величезних GPU-кластерах.

Ethernet 400G активно впроваджується для AI-навантажень, тестуються навіть версії 800G та 1.6T.

InfiniBand на 800Gb/s стабільно працює в кластерах NVIDIA.

Але NVLink 5 (Blackwell) видає 1,800 GB/s на GPU — приблизно в 14 разів швидше за PCIe Gen5, створюючи абсолютно інший рівень продуктивності.

Люди люблять цитувати число «7,2 TB/s», але це сумарна пропускна здатність NVLink 4.0 на 8 GPU — а не нове покоління для одного GPU. Проте масштаб усе одно вражає.

Без цього ваш AI-кластер за $500 млн працює лише на 20% ефективності. Це не програмне забезпечення — це фізика.

Потім з’явився NVLink Fusion — «відкритий» на папері. Але насправді — ідеальна пастка.

Як тільки гіперскейлери інтегрують його, вони будуть заблоковані. Не контрактами, а архітектурою.

І ось ключовий момент часу — UALink-сумісні комутатори та обладнання очікуються не раніше 2026–2027 років.

Це дає NVIDIA чисте вікно для захоплення ринку і зміцнення позицій, перш ніж хтось інший з’явиться.

Ось справжній «moat» (фортеця). Не GPU. Не CUDA. А інтерконект.

З уповільненням закону Мура масштабування обчислень переходить із кремнію на fabric.

І NVIDIA володіє єдиним, який справді працює — зараз і на гіперскейлі.

Наступний крок очевидний — вони припинять продавати чипи і почнуть продавати compute fabric як сервіс.

Суперкомп’ютинг стане підпискою. AWS, Azure, GCP — тепер лише «труби». Канали, через які тече обчислювальна потужність NVIDIA

Дженсен не просто виграв. Він змінив гру, в яку усі грають

👍ПодобаєтьсяСподобалось1
До обраногоВ обраному0
LinkedIn
Дозволені теги: blockquote, a, pre, code, ul, ol, li, b, i, del.
Ctrl + Enter
Дозволені теги: blockquote, a, pre, code, ul, ol, li, b, i, del.
Ctrl + Enter

люди відкрили для себе як працює монополія на технічні рішення.

Суперкомп’ютинг стане підпискою.

Завжди було по підписці, от тільки перші мейнфрейми з’явилися, тут же вистроїлись черги на доступ до обчилювальних потужностей. Абсолютно нічого не змінилося.

Якщо конкуренти не створять життєздатну альтернативу «fabric»,
то через 2–3 роки AI-економіка може перетворитися на орендовану монополію — «Any AI як сервіс від NVIDIA».

Так, в усьому світі на чолі крізь ідіоти, окрім nVIDIA. Тисячі інженерів у Google, AWS, Microsoft та AMD з їхніми PhD, льярдами доларів на R&D, десятиліттями досвіду просто не здогадалися, що швидкий інтерконект це важливо! А Дженсен Хуанг сидів і думав: «Хе-хе, я зроблю швидку шину між чипами, і ці дурні навіть не зрозуміють що це важливо!»
І от зараз, у 2025 році, хтось на DOU нарешті розкрив цю змову! Ексклюзив! Прорив!

Якби все було так просто

Чому АМД взлетіли на ринку CPU і подвинули динозавра Інтел який тоді мав 90% ринку? Тому що створили модульну архітектуру, вклалися дуже багато в швидкісну шину (Infinity Fabric) щоб з’єднати ядра на різних кристалах, тоді як у Інтела був моноліт де всі ядра на одному кристалі. Такий підхід позволив АМД знизити ціну і легко масштабувати ядра.

Чи міг інтел зробити щось подібне? Міг, бабла у них було в десятки разів більше ніж у АМД. Но, із-за внутрішньої політики, бюрократії, самовпевненості, старперів інженерів «працює — не трогай» — не зміг.

Тому да:

Тисячі інженерів у Google, AWS, Microsoft та AMD з їхніми PhD

Все чудово знають, але не роблять одним їм видимим причинам, або роблять ставку на інші продукти і інші дизайни

Це гугл переклач перекладав чи «AI»?
Яка тканина?

підозрюю, що найближчим перекладом буде «мережева структура» чи щось подібне, так як є геологічне поняття fabric, що ближче до теми

© «смотря какой fabric, смотря сколько detail»

В AMD є своя спроба зробити Infinity Fabric, це загальноприйнятий термін в індустрії для опису складних interconnect-архітектур. А перекладу відповідного немає, тому чому б й ні? Не приживеться, я би скоріше вибрав щось на кшталт плетиво, мереживо, вʼязь... Безмежна вʼязь, хоча б звучить прикольно.

Що це за набір слів?

А потом придет дядюшка Чжао из Шанхая и выкатит то же самое, но в четыре раза дешевле.

це ж якраз те, що робробляла українська компанія, яку потім викупила нвідіа?

У Mellanox своя история, они как были, так и остаются производителями высокопроизводительных сетевых процессоров.
Просто NVidia теперь имеет сетевые продукты в своем портфолио.

Це неможливо читати. Такі публікації треба заборонити на ДОУ. Це голий не оброблений підстрочник. Квінтесенція ліннощів.
Якщо треба чимось нанести шкоду українській мові, її корпусу, то отаким от.

Українській мові загрожують не публікації про технології, а вузькість мислення тих, хто міряє зміст комами

Це не публікація. Це набір ключовиків. Ти просто виявив неповагу до читачів ДОУ. 3-ьох коментарний дво-топіковий.

Неповага — це плутати свою обмежену перцепцію з критичним мисленням, ховаючися під фальшивою турботою про мову. Тут ідея про NVIDIA, а не «ключовики» — просто твої інструменти сприйняття не витримують масштабу. Соромно в твоєму віці ховатися за комами.

Олежик, а по суті коментар буде, чи тільки граматика в арсеналі?

Я здивований що це дозволили тобі опублікувати. Перший текст, що ти розмістив — ще куди не йшло — схоже на експеримент. А це... це не зрозуміло. Графомани таке пишуть. Форумчане зараз питають тебе про те, що ти розмістив. Дай їм усім коректну зрозумілу чемну відповідь.
Це не знахідка, це семантична катастрофа, чи якійсь пранк ДОУ форуму.
P.S.
Як продовження до твого жарту, тримай мою думку: chatgpt.com/...​f0-8008-b45e-ba9470a2449d
Ти ж зрозумієш, розумнику?
До речі, Грок теж у захваті, але ось таким чином:

Uh-oh, too much information for me to digest all at once. You know, sometimes less is more!

Типу, ти нас своїм текстом обох ребутнув трохи.

Факт-чек статті (коротко: де правда, де припущення)

1. «NVLink 5 (Blackwell) = 1.8 TB/s на GPU, ~14× швидше за PCIe Gen5» — правда. Офіційно: Blackwell має до 18 лінків по 100 GB/s = 1.8 TB/s на GPU; NVIDIA прямо порівнює це як «>14× PCIe Gen5».

Для довідки: PCIe Gen5×16 дає ~64 GB/s у кожен бік (~128 GB/s сумарно).

2. «Люди цитують 7.2 TB/s — це NVLink 4.0 сумарно на 8 GPU» — по суті правильно. Для Hopper/NVLink 4 офіційно: 900 GB/s на GPU (bi-dir). 8 GPU × 0.9 TB/s ≈ 7.2 TB/s aggregate.

3. «InfiniBand 800 Gb/s стабільно працює в кластерах NVIDIA» — правда по продуктах/доступності. NVIDIA постачає Quantum-X800 (800 Gb/s) як серію IB-комутаторів; це вже комерційний продукт.

4. «Ethernet 400G активно впроваджується; тестують 800G та 1.6T» — відповідає дорожнім картам. Ethernet Alliance/галузеві матеріали показують перехід бек-енд AI-мереж на 800 GbE у 2025 та рух до 1.6 TbE у 2027.

5. «Без цього ваш AI-кластер за $500 млн працює лише на 20% ефективності — це не софт, це фізика» — це риторичне/непідкріплене числом твердження. Прямих джерел із такою саме оцінкою ефективності немає; вплив топології/фабрики справді критичний, але «20%» — авторська оцінка/гіпербола, не факт. (Джерел на точний відсоток не знайдено.)

6. «NVLink Fusion — „відкритий на папері“, але створює архітектурний лок-ін» — частково. NVLink Fusion — це програма для напівкастомних рішень із використанням NVIDIA-фабрики; вона не є відкритим стандартом на кшталт UALink із незалежним управлінням — специ/екосистема контролюються NVIDIA. Отже, архітектурна прив’язка реальна (CUDA/NVLink/NVSwitch стек).

7. «UALink-сумісні свічі/залізо не раніше 2026–2027» — правда по нинішніх публічних планах. Консорціум випустив UALink 200G 1.0 у 2025; низка оглядів та галузеві публікації вказують перші комерційні продукти у 2026, із ширшим розгортанням у 2026–2027.

8. «Moat NVIDIA — не GPU/не лише CUDA, а інтерконект (fabric)» — оціночне судження, але тренд підтверджується. Сам NVIDIA позиціонує Blackwell як платформу з ядром у NVLink/NVSwitch; гіперскейл-кейси (напр., GB300 NVL72 у Azure) підкреслюють, що масштаб і латентність фабрики — ключ. Проте роль CUDA/софта залишається вагомою.

9. «NVIDIA перестане продавати чипи і продаватиме compute fabric як сервіс; гіперскейли стануть „трубами“» — спекуляція. Такої офіційної заяви немає; сьогодні NVIDIA продає і чипи/системи, і мережеві стек-рішення, але «fabric-as-a-service» — це прогноз автора, а не факт. (Джерел немає.)

Привіт. Дякую за цю роботу. Поясню звідки взялось 20% (чесно, це більше хук для дискусій): я комбінував офіційні NVIDIA specs (PCIe в 14+ разів повільніше за NVLink)¹, дослідження MLOps Community про реальну утилізацію GPU кластерів (14% фактично vs 60%+ оцінки)², плюс APNIC analysis network degradation (1% packet loss може забрати 95% продуктивності)³. 20% це песимістичний сценарій поганого кластера з усіма проблемами одразу що підтверджується реальними тестами (40% втрата без NVLink)⁴. Більш типово 40-60% ефективності без NVLink за академічними дослідженнями⁵. Але сам факт, що можна втратити 50-80% потенціалу через interconnect, залишається ключовим.

Джерела:

¹ NVIDIA NVLink офіційна документація: “over 14X the bandwidth of PCIe Gen5”
www.nvidia.com/...​en-us/data-center/nvlink

² MLOps Community дослідження GPU утилізації: “actual average efficiency was closer to 14%” vs “estimate above 60%”
https://mlops.community/this-open-source-tool-measures-gpu-cluster-utilization-heres-why-that-matters/

³ APNIC Blog про AI networking bottlenecks: “1% packet loss → GPUs spend less than 5% time computing”
blog.apnic.net/...​-the-gpu-its-the-network

⁴ Reddit тести RTX 3090 Ti: “40% time savings with NVLink enabled vs without NVLink”
www.reddit.com/...​ing_performance_by_a_lot

⁵ Академічний аналіз NVLink: “reduces scaling overhead by 40-60%” та “30-50% faster training”
intuitionlabs.ai/...​a-nvlink-gpu-interconnect

А осьдечки пруфи. Може їх у текст твій треба помістити?

Сподіваюсь, ви розумієте, що відповідаєте AI. Факт-чекинг дуже в стилі ChatGPT :)

Підписатись на коментарі