Доскоро Nvidia беше пълновластен господар на пазара за AI чипове, но ерата на нейния абсолютен монопол е към своя край. В сферата на самото изграждане на чипове компанията среща все по-силна конкуренция и то от топ клиенти като Microsoft, Google и Amazon.
Графичните процесори на технологичния гигант се конкурират пряко със специализирания хардуер, който онлайн гигантите създават за своите нужди.
Все пак обаче главният изпълнителен директор Дженсън Хуанг очаква най-скъпата компания в света да направи още много пари от AI. За целта той прави поредна калибрация на стратегията на Nvidia. Тя е в посока към бъдеще, в което изкуственият интелект е не само мощен, но и светкавично бърз.
Новата стратегия на компанията
На годишната конференция GTC в Сан Хосе Хуанг постави в центъра AI задачите в реално време. Представяйки новите архитектури на компанията, той даде знак, че бъдещето вече не принадлежи само на тези, които създават изкуствен интелект, а на онези, които могат да го управляват ефективно и мащабно в реално време.
Най-общо казано, тренирането на AI е много сложен и скъп процес, в който Nvidia няма конкуренция, докато реалното използване на вече готовите модели (т.нар inference) може да е изисква по-скромна изчислителна мощ, но за сметка на това я изисква бързо - от нея зависи кога ще дойде отговорът на потребителското запитване.
Тук огромна роля ще има един от новите играчи на пазара. Това е Groq, чиито иновации в сферата на т.нар. LPU (Language Processing Units) впечатлиха достатъчно Дженсън Хуанг, за да сключи лицензно споразумение за около 20 милиарда долара.
Тежките чипове на Nvidia са проектирани да правят почти всичко, докато LPU архитектурата е създадена за светкавична скорост при работа с езикови модели. Именно LPU на Groq е част от новата генерация Vera Rubin чипове на Nvidia. Новата интегрирана inference система идва с възможност да обработва по 40 петабайта в секунда в синхрон с тежките Vera CPU и Rubin GPU.
Тук вече не говорим за времезакъснение, което да не изнервя човека потребител. Залогът на Nvidia е, че агентните системи ще имат все по-масово разпространение. Когато различни автономни системи си "говорят", нормалното за нас време за реакция за тях е тотално неприемливо. Тук идва и нуждата от чиста inference мощ.
Ако трябва да минем от абстракция към цифри, според Хуанг е възможно приходите от чиповете с изкуствен интелект да достигнат поне 1 трилион долара в рамките на 2027 година. Прогнозата е доста по-висока от възможността за приходи от над 500 млрд. долара през тази година.
Край на "Данък Nvidia"
Промяната на стратегията отговаря на ситуацията на пазара. Там както онлайн гиганти, така и стартъпи се опитват да разбият монопола на Nvidia в областта, в която той е най-колеблив.
Досега Microsoft беше най-големият купувач на чиповете на Nvidia, за да захранва своя изкуствен интелект Copilot и облачните си услуги Azure. В началото на тази година обаче компанията обяви, че вече има и използва собствен чип специално за задачи в реално време - Maia 200.
Tensor Processing Unit-ите на Google (TPU) също са по-ефективни в този сценарий от, например, бестселъра Nivdia H100.
Amazon по-рано тази седмица обявиха, че ще си партнират с конкурента на Nvidia Cerebras именно в Inference сферата.
Всичко това може да има ефект и върху потребителския пазар. GPU-базираните решения за изкуствен интелект се нуждаят от абсурдни количества оперативна памет. Тъй като в крайна сметка тези видеокарти са много скъпи, всички производители насочват капацитета си към тях и в резултат се стига до недостиг и надуване на цените на смартфони, лаптопи и т.н.
LPU-базираните чипове използват по-малко, но и много по-бърза памет, която освен това е по-различен тип. Това може и да означава, че технологичният скок ще донесе не само трилион долара за Nvidia, но и глътка въздух за всички потребители.
USD
CHF
EUR
GBP