Поемането на отговорност и неприкриването зад решението на машината е ключово при използването на изкуствения интелект, но все още ръководителите на компании не осъзнават колко важно е AI да се използва по отговорен начин. Това подчертаха в студиото на Money.bg юридическите експерти от Ernst & Young Ирина Янева и Вероника Димова.
Те са част от работната група за изкуствен интелект на Българската асоциация по информационни технологии (БАИТ).
Какво представлява отговорната употреба на AI?
Адв. Ирина Янева посочи, кои са основните "стълбове" на отговорната употреба на изкуствен интелект - справедливост, поверителност и надеждност.
"Какво означава "справедливост" - да се отговаря на нуждите на конкретните заинтересовани лица. Надеждността се изразява в това да можем да получаваме резултатите, които очакваме. Поверителността е свързана с това как защитаваме данните през целия им цикъл - от използването им за целите на обучение, през fine-tuning, в последствие дори когато правим самите заявки", обясни тя.
Тук неизменно идват и въпросите за киберсигурността, но и не само: "Нещо, което е изключително важно при изграждането на цялостната рамка за изкуствения интелект, е human in the loop - човекът "вътре". А за да може човешкият контрол да бъде ефективен, трябва да има разбиране по какъв начин се получават резултатите, генерирани от AI.
"Това не означава, че всички ние трябва да станем експерти по моделиране или по fine-tuning, или по одит на системи за изкуствен интелект. Означава, че трябва да имаме техническа документация и да сме обучени, за да разбираме логиката, по която AI достига до дадените резултати", подчерта тя.
По същия начин изборът на доставчик на дадени AI услуги може да е обвързан с изискванията на съществуващите регламенти и директиви за киберсигурността, но даже и да не е, все пак според експертите трябва да има оценка на риска - тъй като голям процент от ransomware атаките и други подобни пробиви се случват през трети страни.
През последната година много напреднаха отворените големи езикови модели, които могат да работят на локален хардуер. Макар това да изглежда привлекателен вариант от гледна точка на защита на данните е изключително важно дадената компания да оцени правилно способностите си да доразвие, внедри и защитава подобна open source система.
Какво се случва "на терен"?
"В момента изкуственият интелект влиза през отделните отдели - той много често не влиза през мениджмънта. Отговорността трябва да върви отгоре надолу, т.е. ние трябва да имаме една цялостна стратегия за управлението на изкуствения интелект и неговото въвеждане", посочи адв. Вероника Димова.
Тя даде пример с HR отделите, в които "навсякъде се използва изкуствен интелект" и то най-често във високорисков контекст - при оценяване на хора, боравене с чувствителни лични данни и т.н.
Днес AI системите не са просто съветници, които оставят на нас последната дума при вземането на решения. Агентните системи имат все по-голяма автономия при изпълняването на задачи, изискващи интеракция с множество системи. Кои ще е виновен, ако сгрешат?
Адв. Янева отбеляза, че законодателството на ниво ЕС казва за какво отговарят както разработчиците на AI системи и модели, така и тези, които ги използват - защото въвеждането е именно под техния контрол. Има обаче и ред други съществуващи правни плоскости, на база на които може да се търси отговорност.
Източник: money.bg
"Юридическото лице, което използва AI технологията, ще носи отговорност. Много е вероятно и мениджмънтът да носи отговорност", посочи тя.
Но разговорът не приключва тук. По думите ѝ 90% от клиентите задават следния въпрос: "Какво правим със служителите - не носят ли е те отговорност? Не сме въвели на ниво "Ръководство" и на ниво "Компания" изкуствен интелект, обаче не сме го и ограничили. Те са си инсталирали DeepSeek или ChatGPT, използват го. Ние не знаехме".
Мнението на адв. Ирина Янева: "Не мога да кажа, че това на 100% би ги извинило като аргумент. Но в този случай много сериозно ще погледнем на възможността за ангажиране и дисциплинарна отговорност на един такъв служител".
Именно затова и развиването на AI грамотността е от толкова голямо значение, посочи адв. Димова.
Регулациите - помощник или затруднение?
Развитието на изкуствения интелект особено от дебюта на ChatGPT насам е съпътствано с правни казуси и предизвикателства към съществуващата нормативна база по целия свят. Европа и САЩ имат различни подходи към регулацията, като Стария континент е по-консервативен, но това не значи, че иновациите не могат да си намерят път.
Включително - у нас, където също се работи по специализирано законодателство.
"Изкуственият интелект прилича на интернет - той влиза отвсякъде, не можем да го разглеждаме отделно. Първо трябва да видим какво ще се случи с останалата регулация, какво ще се случи с дигиталната среда и да се съобразим с нея. Ако нещо ще се случва, трябва да е само на нивото, на което държавите членки наистина имат свобода да регулират", подчерта адв. Димова.
Според адв. Янева ключовата дума е "хармонизация" - не е достатъчно текстовете да не противоречат на европейския регламент, трябва и да се отчетат сферите, които вече са обект на регулация у нас.
"България има преимущество в рамките на Европейския съюз да бъде една от шестте държави, избрани във връзка с развитието на проекти в сферата на изкуствения интелект. Не бива да губим това, въвеждайки ограничения за бизнеса чрез регулациите или въвеждайки практически ограничения през практиката на съществуващи регулаторни органи", призова тя.
По думите ѝ в момента "буквално на коляно се правят законопроекти", които не се консултират с бизнеса по никакъв начин и резултатът е хаос, който "убива конкурентоспособността на държавата".
Целия разговор гледайте във видеото!




USD
CHF
EUR
GBP