Алгоритъм за компресиране, представен от Google миналата седмица, предизвика срив при акциите на производителите на памети. До края на седмицата обаче се очерта ясна разделителна линия: производителите на флаш памети понесоха най-тежките загуби, докато тези на високоскоростна памет (HBM) се стабилизираха.

Какво е TurboQuant

В публикация в своя блог Google представи TurboQuant — техника, която компресира т.нар. key-value кеш, използван от езиковите модели, от 16 до само 3 бита на стойност.

Резултатът: паметта, необходима за AI inference, намалява поне шест пъти, а скоростта на обработка върху GPU Nvidia H100 нараства до осем пъти — без измерима загуба на точност.

Технологията е разработена съвместно с изследователи от Google DeepMind и учени от Корейския технологичен институт KAIST. Официалното представяне е планирано за конференцията ICLR 2026 в Рио де Жанейро през април.

Най-богатият човек в света строи завод за чипове, който прави Тайван излишен

Най-богатият човек в света строи завод за чипове, който прави Тайван излишен

Terrafab ще е без аналог... ако въобще стане реалност

Главният изпълнителен директор на Cloudflare Матю Принс нарече разработката "DeepSeek момента за Google" — препратка към китайската AI лаборатория, чиято демонстрация на евтини високоефективни модели разтърси технологичните пазари миналата година.

Как реагира пазарът

Пазарната реакция беше незабавна. В края на миналата седмица SanDisk загуби 11%, Micron падна с близо 7%, а Philadelphia Semiconductor Index се срина с 4,8%. В понеделник разпродажбата продължи.

В Азия японският специалист по флаш памети Kioxia Holdings поевтиня с близо 6%, а южнокорейският индекс Kospi отбеляза седмична загуба от над 8%.

Samsung и SK Hynix — двата най-големи производителя на памети в света — също поевтиняха рязко в четвъртък, но до края на седмицата Samsung почти напълно възстанови загубите си, а спадът при SK Hynix се сви до около 1%.

Стачка в Samsung може да остави света без чипове

Стачка в Samsung може да остави света без чипове

Акциите на компанията летят в небето и служителите искат да получат дължимото за това

Анализатори от Morgan Stanley и Bloomberg Intelligence обясниха разминаването: TurboQuant оптимизира паметта при inference (т.е. при всекидневната работа с вече трениран модел), но не засяга обучението на моделите, където HBM е незаменима.

Дългосрочният натиск е насочен предимно към NAND флаш паметта, използвана в SSD дисковете на датацентровете.

Лабораторен пробив, (все още) не пазарна реалност

Редица анализатори предупреждават, че реакцията на пазара за пореден път изпреварва реалността. Алгоритъмът е публикуван в arXiv още през април 2025 г., а блог публикацията на Google просто го вади отново на светло.

"На този етап това е изследователска разработка, която тепърва предстои да бъде валидирана", коментира пред Korea Herald професор Ю Хои-джун от KAIST.

Освен това историята познава т.нар. парадокс на Джевонс — ефективността не свива, а разширява търсенето. По-евтиното оборудване на AI системи ще ускори тяхното масово навлизане, което в крайна сметка ще увеличи изчислителните натоварвания и нуждата от памет.

"Производителите на памети биха се оказали най-големите бенефициенти на разрастващата се AI екосистема", прогнозира пред изданието Ким Донг-уон от KB Securities.

Дали накрая ще получим по-мощни inference системи, или по-евтина RAM за компютри - тепърва ще става ясно, но поне на първо четене с иновацията със сигурност ще дойдат позитиви.