Легендата разказва, че героят на швейцарския епос Вилхелм Тел прострелял с арбалет ябълка върху главата на сина си. Въпреки че има много тълкувания на приказката, от гледна точка на теорията на технологиите, някои са особено забележими, пише The Conversation.

Първо, Тел e опитен стрелец. Второ, той добре е осъзнавал, че лъкът му е надежден. Трето, Тел сам е избрал целта. Какво общо има всичко това с изкуствения интелект? Метафорично, AI (помислете за големи езикови модели или LLM, като ChatGPT) може да се разглежда като лък, потребителят като стрелец, а ябълката като целта на потребителя.

Погледнато по този начин, е по-лесно да се разбере как AI може да се използва ефективно на работното място. За тази цел е полезно да разгледаме какво се знае за ограниченията на AI, преди да разберем къде може и къде не да помогне за ефективността и производителността.

Team-GPT - българската компания, която помага за интегриране на изкуствен интелект в бизнеса

Българската компания, която помага за интегрирането на изкуствен интелект в бизнеса

Стартъпът набра $4,5 милиона капитал и има за цел да получи още финансиране

Първо, езиковите модели са склонни да създават резултати, които не са свързани с реалността. Скорошно проучване показа, че до 60% от техните отговори могат да бъдат неверни. Премиум версиите дори неправилно отговарят на въпроси по-уверено от безплатните си колеги. Второ, някои LLM са затворени системи - тоест те не актуализират своите "вярвания". В един променлив свят, който непрекъснато се променя, статичната природа на такива езикови модели може да бъде подвеждаща. В този смисъл те се отдалечават от реалността и може да не са надеждни.

Нещо повече, има някои доказателства, че взаимодействията с потребителите водят до влошаване на производителността. Например, изследователите са открили, че езиковите модели стават по-прикрити расисти с течение на времето. Следователно тяхната продукция не е предвидима. Трето, LLM нямат цели и не са способни самостоятелно да откриват каквото и да е.

Снимка 661277

Източник: iStock

В най-добрия случай те са просто инструменти, на които потребителят може да възложи своето изследване на света. И накрая, езиковите модели не разбират света, в който са вградени. Те много повече приичат на бърборещи папагали, които само създават впечатлението, че са умни.

Нека помислим и за способността на LLM да извличат данни и да вземат предвид статистическите асоциации между думите, които използват, за да имитират човешка реч. AI не знае какво означава статистическа връзка между думите. Изкуственият интелект не знае, че кукуригането на петела не води задължително до изгрев, например. Разбира се, способността на езиковите модели да имитират човешка реч е впечатляваща. Но способността да се имитира нещо не означава, че то притежава качествата на оригинала.

"Твоето БЪДЕЩЕ" е обща платформа на Webcafe.bg и Money.bg за кариерно развитие, която свързва талантите с бизнеса.

Облекчаване на натоварването

И така, как можете да използвате AI по-ефективно? Едно нещо, което може да е от полза, е способността на изкуствения интелект да критикува идеи. Много често хората предпочитат да не чуват критики и се чувстват обезсърчени, когато идеите им бъдат критикувани - особено когато това се случва публично. Но генерираните от езиков модел критики се понасят по-лесно и могат да бъдат полезни.

Всички можем да използваме AI, за да кристализираме разбирането си за света. Какво значи това ли? Тъй като изкуственият интелект не е естествен, той не разбира причините за събитията, задаването на въпроси може да ви принуди да се включите в осмислянето. Например, ако попитаме езиковия модел дали университетът, който сме завършили трябва широко да възприеме използването на AI, LLM посочва предимствата на ефективността. Обаче очевидно не разбира как се разпределят ресурсите.

AI няма опит в света, за да го разбира. Той може да се използва за допълване на обикновени задачи като редактиране и писане на имейли, но дори и тук, разбира се, има опасност. Трябва да помислим кога неумело написан личен имейл може да бъде по-добър вариант, особено ако трябва да убедим някого в нещо.

Автентичността вероятно ще започне да се отчита все повече, тъй като използването на LLM става все по-широко разпространено. Личен имейл, който използва правилния език и апелира към споделени ценности, е по-вероятно да получи по-добър отзвук. Още нещо, AI се използва най-добре за задачи с ниски залози, където няма отговорност.

Например, може да се използва за обобщаване на дълга таблица с данни, отговаряне на въпроси на клиенти, които не са свързани с политика или финанси, генериране на публикации в социалните медии или да е в помощ при обучение на служители.

ЕК отпуска над €1 милиард за изкуствен интелект и не само

ЕК отпуска над €1 милиард за изкуствен интелект и не само

В новото финансиране от Брюксел влизат и "фабриките за AI", каквато ще има и в България

Да разгледаме обратния случай. През 2022 година LLM, използван от Air Canada, е дезинформирал пътник за такса и пътникът е съден. Съдията държи авиокомпанията отговорна за лошия съвет. Феновете на AI често го препоръчват за всичко под слънцето. Но това съвсем не е добра идея.

Правилно е да обмисляме много внимателно дали има смисъл да използваме AI и какви могат да бъдат свързаните с това разходи. Вероятно колкото по-креативна е дадена задача, колкото по-уникална е тя и колкото повече разбиране изисква за това как работи светът, толкова по-малка е вероятността изкуственият интеект да бъде полезен.

Всъщност, възлагането на творческа работа на AI дори може да отнеме част от "магията". Изкуственият интелект може и да успява донякъде да имитира хората, но само хората разбират какво е да си човек. Така че, по-кротко.