Европейският парламент одобри днес законодателния акт за изкуствения интелект, който гарантира безопасността и зачитането на основните права на хората, като същевременно насърчава иновациите. Новият закон има за цел да защитава основните права, демокрацията, принципите на правовата държава и екологичната устойчивост от високорисков изкуствен интелект (ИИ), съобщават от българското представителство на ЕП.
Регламентът установява задължения за изкуствения интелект въз основа на потенциалните рискове.
Забранени приложения
Новите правила забраняват някои приложения с изкуствен интелект, които застрашават правата на гражданите, включително системи за биометрична категоризация, основани на чувствителни характеристики, и нецеленасочено извличане на лицеви изображения от интернет или от записи от видеонаблюдение с цел създаване на бази данни за разпознаване на лица. Ще бъдат забранени и системите за разпознаване на емоции на работното място и в училищата, за социално оценяване, прогнозиране на престъпление (въз основа на профилиране или оценка на техните характеристики), както и ИИ, който манипулира човешкото поведение или използва уязвимостта на хората.
Източник: iStock
Изключения в областта на правоприлагането
Използването на системи за биометрична идентификация от правоприлагащите органи е забранено по принцип, освен в изчерпателно изброени и подробно определени ситуации. Системи за биометрична идентификация в реално време може да се използват само ако са спазени строги гаранции, например използването на такива системи е ограничено във времето и географския обхват и подлежи на специално предварително съдебно или административно разрешение.
Те могат да се използват, например, за целенасочено търсене на изчезнало лице или предотвратяване на терористично нападение. Употребата на такива системи постфактум (употреба на системи за екс-пост дистанционна биометрична идентификация) се счита за случай на използване на високорискови системи с ИИ, който изисква съдебно разрешение във връзка с престъпление.
Задължения за високорисковите системи
Предвидени са ясни задължения и за други високорискови системи с ИИ (поради значителните им потенциални вреди за здравето, безопасността, основните права, околната среда, демокрацията и принципите на правовата държава). Примерите за високорискови приложения на ИИ включват критична инфраструктура, образование и професионално обучение, заетост, основни частни и публични услуги (напр. здравеопазване, банково дело), определени системи в областта на правоприлагането, миграцията и управлението на границите, правосъдието и демократичните процеси (напр. оказване на влияние върху изборите).
Подобни системи трябва да оценяват и намаляват рисковете, да поддържат регистри за употребата, да бъдат прозрачни и точни и да гарантират човешки надзор. Трябва да се гарантира правото на гражданите за подаване на жалби относно системи с ИИ и за получаване на обяснения за решения, базирани на високорискови системи с ИИ, които оказват значително въздействие върху техните права.
Изисквания за прозрачност
Системите за ИИ с общо предназначение и моделите, на които те се основават, следва да отговарят на определени изисквания за прозрачност, например спазване на законодателството на ЕС в областта на авторското право и публикуване на подробно обобщение на съдържанието, използвано за обучение на модела. Моделите на по-мощните системи за ИИ с общо предназначение, които биха могли да породят системни рискове, ще бъдат подложени на допълнителни изисквания, включително извършване на оценка на модела, оценяване и ограничаване на системните рискове и докладване за инциденти.
Освен това изкуствените или манипулираните изображения и аудио- или видеосъдържание (дълбинни фалшификати - deep fakes на английски) трябва да бъдат ясно обозначени като такива.
На национално равнище ще бъдат създадени регулаторни лаборатории и ще се провеждат изпитвания в реални условия, които трябва да бъдат достъпни за МСП и стартиращите предприятия, с цел да се разработи и обучи новаторски ИИ преди пускането му на пазара.