Възможността да получиш конкретен отговор на въпроса си вместо страница с линкове звучи много добре от потребителска гледна точка - на всички ни е писнало да търсим нещо и да получаваме насреща некачествени, но добре оптимизирани за Google страници с ненужна информация. Според някои вече сме близо до познатите от sci-fi киното и литературата "разговори" с компютъра. Това обаче струва скъпо. Както се оказва - 10 пъти по-скъпо, отколкото традиционното базирано на ключови думи търсене в Мрежата.
Данните са от директора на Alphabet (компанията майка на Google) Джон Хенеси, като той ги даде пред "Ройтерс". Използваната до момента технология от Google Search е струвала като употреба на изчислителен ресурс приблизително 0,2 цента, докато сега всяко търсене, на което изкуственият интелект трябва да даде подробен отговор, излиза поне няколко цента.
Според анализаторите от Morgan Stanley, ако превърнем в отговори от по 50 думи приблизително 3,3-те трлн. търсения за миналата година, разходите на Google биха скочили с 6 млрд. долара. Според SemiAnalysis ръстът е "само" 3 млрд. долара. И в двата случая сумата е огромна даже на фона на 60-те млрд. долара приходи на Alphabet за миналата година.
Конкурентната AI-базирана търсачка You.com вече от няколко месеца има чат бот. Според изпълнителният ѝ директор Ричард Сочър добавянето на изкуствен интелект е увеличило разходите с между 30% и 50%.
Защо струва толкова пари?
AI функционалностите се изграждат върху т.нар големи езикови модели. Те имат милиарди параметри (в случая на използвания в популярния ChatGPT - цели 175 милиарда), като алгоритмите са "обучавани" на огромни количества текстове на най-различни теми. Когато потребителят зададе въпрос, той се анализира и се подготвя отговор на база на вече натрупания и организиран познавателен масив. Това изисква много сериозна изчислителна мощ - специализиран хардуер за милиарди долари.
Освен чиповете е нужен и ток. Когато става дума за традиционното търсене по ключови думи, говорим за процес, който е анализиран в детайли вече 20 години и така и системите, които се използват, са максимално ефективни. Новият хардуер, който разчита на невронни мрежи и големи езикови модели, все още не е така оптимизиран и това допълнително увеличава неговата консумация на електроенергия.
Компромисите с AI търсачките освен всичко друго са и много по-трудно постижими. Ако при стандартно търсене с ключови думи излизат неподходящи резултати, това е неприятен, но все пак очакван проблем. Ако обаче имаме чат бот, който с пълна увереност разпространява дезинформация или се държи грубо с потребителите, това може да докара криза на цялата компания.
Така Alphabet загубиха над 100 млрд. долара пазарна стойност, след като техният Google Bard се оказа, че прави грешки даже в рекламния си клип, а Microsoft Bing AI се наложи да бъде силно ограничен като функционалност, след като потребители показаха колко лесно излиза от контрол.
Защо тогава въобще се захващат с това?
Някои скептици смятат, че AI бумът ще отшуми по същия начин, както се случи и с кратката световна слава на NFT - няколко месеца медии и инфлуенсъри ще обясняват, че това е революция, но след това ще минат към следващото голямо нещо, а "революцията" ще остане с нишова употреба. Никой не може поне към момента да каже дали ще стане точно така, но има поне една причина ситуацията да бъде различна - AI дава шанс на Microsoft срещу Google.
Цялата "надпревара във въоръжаването" около AI започна в момента, в който в Редмънд осъзнаха, че най-накрая имат нещо, с което търсачката им Bing да разклати 93-процентовия монопол на Google в уеб търсенето. Затова и цялата им стратегия се гради върху представата, че става дума за качествено нов начин за работа с компютри и смарт устройства. Google видимо прибързаха с отговора си под формата на доста близкия като идея Bard, като идеята беше ясна - ако наистина навлизаме в нова епоха, и Google ще е част от нея.
За Microsoft скокът в разходите заради изкуствения интелект обаче е по-поносим - все пак към момента те обработват едва 3% от търсенията в интернет. Затова и финансовият директор на компанията Ами Худ подчерта пред "Ройтерс", че увеличаването на потребителите и на рекламните приходи заедно с тях ще доведе до позитивен резултат при разгръщането на Bing AI сред милионна аудитория.
Google на свой ред оптимизират своя хардуер, така че да се справя по-добре специално със свързани с изкуствения интелект задачи. Работи се и по самите езикови модели. Според ръководител от технологичния сектор, пожелал анонимност, в момента голямото предизвикателство е да се намали броят на параметрите без това да влияе на точността.
В тази посока вече действа Meta. Техният модел LLaMA, който е свободно достъпен за изследователите, е с 65 млрд. параметъра, но според анализ на компанията представянето му е сходно или по-добро в сравнение с конкурентните, които са значително по-големи.