Штучний інтелект стає невід'ємною функцією більшості розподілених комп'ютерних архітектур
Штучний інтелект стає невід'ємною функцією більшості розподілених комп'ютерних архітектур
Штучний інтелект стає невід'ємною функцією більшості розподілених комп'ютерних архітектур. Відповідно, апаратні прискорювачі ІІ перетворилися на об'єкт конкурентної боротьби насамперед між виробниками напівпровідників NVIDIA, AMD і Intel.
За останні місяці виробники апаратних прискорювачів ІІ активізували свої зусилля. Однією з головних подій став випуск Intel оптимізованого для ІІ нового покоління GPU Ponte Vecchio, першого в сім'ї Xe, яке прискорить також ігри та високопродуктивні обчислення.
На ринку апаратних прискорювачів ІІ NVIDIA випереджає інших завдяки лідерству в області GPU і постійного поліпшення своїх процесорів - їх продуктивності, ефективності, вартості і т. д. Хоча компанія стикається з зростаючою конкуренцією як на ринку GPU, так і в інших сегментах прискорювачів ІІ (насамперед це стосується мобільних пристроїв, Інтернету периферійних обчислень), вона зберегла свої позиції у війнах виробників чіпів для ІІ і тепер готова до подальшого зростання.
Найближчі роки NVIDIA залишиться провідним постачальником мікросхем, оптимізованих для широкого спектру завдань, що вирішуються за допомогою ІІ, від навчання до логічного висновку, і розгортаються в хмарах, корпоративних ЦОДах і на периферії. Кілька найважливіших тенденцій допоможуть компанії зберегти домінування на цьому ринку.
По-перше, хмари залишаться центром тяжіння для ІІ. Згідно з недавнім прогнозом фірми McKinsey, до 2025 р. основну масу складуть апаратні прискорювачі, що підтримують вирішення завдань ІІ в ЦОДах і на серверах. Протягом кількох років переважним завданням ІІ в хмарах буде навчання на моделях. Правда поступово почне зростати кількість додатків для логічного висновку, і ці завдання будуть переноситися на мобільні, вбудовані та інші периферійні пристрої.
GPU NVIDIA зарекомендували себе як основну платформу навчання на базі хмар. У найближчі 10 років ніяка інша технологія апаратного прискорення не зможе замінити GPU в цій якості. Тим не менш, зростання ІІ відбуватиметься головним чином у сегменті периферійних систем логічного виведення. McKinsey прогнозує, що до 2025 р. лише в ЦОДах на апаратуру для виведення доведеться вдвічі більше витрат, ніж на апаратуру для навчання (9-10 млрд. дол. проти 4-5 млрд.), а в області периферійних пристроїв утричі. /p>
По-друге, NVIDIA піде на користь, що домінування GPU в хмарах забезпечить цій технології довготривале використання в периферійних обчисленнях. GPU залишаються найбільш поширеною апаратною технологією для вирішення завдань ІІ в хмарах з великим відривом від інших технологій. За оцінкою служби Liftr Cloud Insights компанії DoubleHorn, у травні 2019 р. чотири головні хмарні провайдери розгорнули GPU NVIDIA у 97,4% екземплярів IaaS зі спеціалізованими прискорювачами. Малоймовірно, що до середини десятиліття конкуруючі GPU виробництва AMD і Intel зможуть серйозно потіснити продукти NVIDIA.
Компанія використовує свої лідируючі позиції в хмарах для розширення присутності в сфері периферійних обчислень. Це підтверджується встановленням нею важливих партнерських відносин з метою використання оснащених GPU серверів для вирішення завдань ІІ в галузевих, гібридних і віртуалізованих рішеннях для обчислювальних середовищ хмаро-периферія. Навіть після того, як конкуруючі технології мікросхем для ІІ, такі як CPU, FPGA та процесори нейронних мереж, завоюють свою частку ринку периферійних пристроїв, GPU як і раніше будуть використовуватися завдяки ключовій ролі, яку вони відіграють в середовищах хмаро-периферія, наприклад, для автономних транспортних засобів та галузевих ланцюжків поставок.
Нарешті, останнє в списку, але не за значенням. Вражаючі показники апаратних прискорювачів NVIDIA для ІІ, що стали галузевим стандартом, дадуть їй конкурентну перевагу по всіх напрямках. Примітно, що технологія компанії, як показує свіжий реліз тесту MLPerf, ставить нові рекорди продуктивності як під час навчання, так і при виведенні. MLPerf став стандартом де-факто для тестування навчання ІІ, а після виходу тесту MLPerf Inference 0.5 також і для логічного висновку.
Нещодавно продемонстровані продуктами NVIDIA найвищі результати в широкому спектрі тестів MLPerf на логічний висновок ні в якому разі не є трюком і з урахуванням їх явного лідерства в тестах ML Perf на навчання не стали. Їхнє швидке поширення та відгуки клієнтів підтверджують, що вся лінійка апаратури і ПО NVIDIA для ІІ демонструють найвищу продуктивність в будь-яких задачах ІІ і при будь-яких способах розгортання. Видатні результати тестування є ще одним підтвердженням орієнтації NVIDIA на недорогі високопродуктивні платформи ІІ.
Перші місця продуктів NVIDIA в тестах MLPerf у всіх категоріях (ЦОД і периферія, навчання і висновок) дозволяють припустити, що компанія швидше за все збільшить або принаймні збереже лідируючі позиції на ринку продуктів для ЦОДів і серверів і досягнеться. для периферії попри наявність у цьому сегменті десятків конкурентів, великих і маленьких, широко відомих і початківців.Тим не менш, досягти майже монопольного становища, яким NVIDIA володіє на ринку GPU для хмар, стосовно периферійних додатків логічного висновку буде майже нерозв'язним завданням.
На цьому ринку не домінуватиме ні один виробник апаратури або ПЗ. Сфера застосування GPU, ймовірно, обмежиться хмарними та серверними додатками ІІ. У той же час інші технології (CPU, ASIC, FPGA і різні процесори нейронних мереж) будуть збільшувати свої переваги по порівнянню з GPU за продуктивністю, вартістю та енергоефективністю при обслуговуванні периферійних додатків.
Справді, в операціях логічного висновку на периферії зараз домінують CPU, а GPU NVIDIA погано підходять для підготовки виведення на мобільних пристроях, в Інтернеті речей та в інших сценаріях масового попиту. McKinsey прогнозує, що в 2025 р. попит на використання ІІ для виведення на 50% задовольнятимуть CPU, на 40% — ASIC. 10%, що залишилися, припадуть на GPU і інші архітектури.
Якщо взяти тільки периферійну апаратуру для виведення з допомогою ІІ, то NVIDIA стикається з конкуренцією зі сторони десятків виробників, які або постачають, або розробляють апаратні прискорювачі виведення для ІІ. Безпосередніми конкурентами NVIDIA, що підтримують різні технології мікросхем виведення для ІІ, є провайдери-гіперскейлери Amazon Web Services, Microsoft, Google, Alibaba та IBM, провайдери хмар споживчого класу Apple, Facebook і Baidu, виробники напівпровідників Intel, AMD, ARM, Samsung, X LG, а також велика кількість китайських стартапів.
Хоча GPU NVIDIA продемонстрували вражаючу продуктивність у різних завданнях для ІІ, потенційне використання даної технології на периферії обмежується її більш високою вартістю та меншою енергоефективністю по порівнянню з багатьма альтернативами.
Тим не менш, компанія вступає в боротьбу добре озброєної. Значною подією на ринку прискорювачів виведення став анонс модуля NVIDIA Jetson Xavier NX, який буде доступний у березні. Даний модуль забезпечує на периферії продуктивність виведення системами ІІ на рівні сервера, має невеликі розміри, дешевий, споживає мало енергії і може розгортатися в різних варіантах. Такі особливості зроблять нову апаратну платформу придатною для прискорення виведення системами ІІ як на периферії, так і в ЦОДах.
При освоєнні периферії NVIDIA буде використовувати в якості головних конкурентних переваг свою бібліотеку CUDA, API і допоміжне ПЗ. Все це повсюдно застосовується при розробці та використанні ІІ, і NVIDIA майже напевно реалізує підхід «змоделюй одного разу, розгортай скрізь» до цього набору інструментів роботи з даними стосовно всім своїх мікросхем. Не дивно, що Intel дотримується аналогічної стратегії, використовуючи свій новий OneAPI, щоб спростити програмування різних прискорювачів ІІ, включаючи GPU, CPU та FPGA.
Вступаючи в боротьбу за прискорення логічного висновку на периферії, NVIDIA зіткнеться зі зменшенням віддачі будь-яких спроб відступити на основний для неї ринок навчання ІІ на моделях у хмарному середовищі. Хоча зараз вона задає тон у цьому сегменті, її конкурентне перевага скорочуватиметься, оскільки AMD та Intel продовжують удосконалювати свої GPU для ІІ, високопродуктивних обчислень, ігор та інших ринків.
Оскільки ринок рухається в напрямку використання різних технологій прискорення ІІ, конкуренція, ймовірно, переміститься в область інструментів науки про даних, відповідних парадигмі «змоделюй одного разу, розгортай скрізь». Широко поширені рівні абстракції, такі як Open Neural Network Exchange і Open Neural Network Specification, дозволяють автоматично узагальнити модель машинного навчання, створену за допомогою одного інструменту розробки клієнтської частини, для ефективного здійснення логічного висновку з використанням різнорідних прискорювачів ІІ.
Все сказане вказує на швидкий перехід у такий світ, де розробники ІІ будуть надавати менше значення фірмовим крос-процесорним API, що надаються окремими виробниками обладнання, такими як NVIDIA або Intel. GPU та інші апаратні бекенд-платформи будуть приховані від розробників, оскільки екосистеми, що використовують безліч технологій прискорювачів, ІІ поширяться від хмар до периферії.
