Всяка нова технология дава много, но може да се използва и неправилно. Днес изкуственият интелект се използва за най-добри цели, включително за подобряване на качеството на медицинската диагностика, за търсене на нови начини за лечение на рак или за повишаване на безопасността на автомобилите. 

За съжаление, тъй като възможностите на изкуствения интелект (AI) се разширяват, той може да стане опасен или да се използва с лоши намерения.

Редица известни личности, сред които легендарният физик Стивън Хокинг и новаторът Илън Мъск, смятат, че изкуственият интелект може да бъде опасен. Мъск веднъж дори заяви, че AI е опасен като диктатор в Северна Корея. 

Основателят на Microsoft Бил Гейтс също смята, че има причини да бъдем предпазливи по отношение AI, но той може да свърши добра работа, ако се отнасяме към него правилно. 

Снимка 320035

Източник: iStock

Рисковете на изкуствения интелект

Тъй като технологии, които можем да причислим към изкуствения интелект и свързаните с него индустрии се развиват с високи темпове, мнозина вече мислят за потенциалните опасности. Ето защо е толкова важно да се обсъдят възможностите за осигуряване на безопасността на хората от действията на изкуствения интелект и минимизиране на неговия деструктивен потенциал.

Въпреки факта, че повечето съвременни устройства са предназначени да бъдат благословия за човечеството, експертите смятат, че всеки мощен инструмент може да се използва, за да навреди, ако този инструмент попадне в неподходящи ръце. 

Днес технологията AI е на много високо ниво, включително инструменти като разпознаване на лица, обработка на естествени текстове и интернет поръчки. 

В момента експертите в тази област работят по създаването на изкуствен интелект, чиито системи могат да изпълняват всякакви задачи, които човек може да върши, и с висока степен на вероятност той ще надмине всеки от нас. 

Всъщност скоростта на развитие на изкуствения интелект е наистина невероятна. Сега има много устройства, работещи с близък до изкуствения интелект, които правят ежедневието ни по-удобно и ефективно. 

Въпреки факта, че машината със супер интелект все още не е измислена, съществуват редица правни, политически, финансови и регулаторни въпроси, които трябва да бъдат решени, за да бъдат готови за безопасното функциониране на такова устройство. 

Дори въпреки липсата на такава машина, изкуственият интелект вече може да носи определени рискове. По-долу ще разкажем за някои от тях по-подробно. 

Автономни оръжия

Изкуственият интелект може да бъде програмиран да прави нещо опасно, например да управлява автономни оръжия, програмирани да убиват. И това е един от реалните рисковете, свързани с AI. 

Експертите смятат, че ядрената надпревара може в крайна сметка да се превърне в световна надпревара за автономни оръжия. 

В допълнение към факта, че автономните оръжия могат да направят нещо по свой начин, по-реална заплаха е, че такива оръжия попадат в ръцете на правителства, което всъщност не ценят човешкия живот. 

Ако се разгърнато веднъж, такова въоръжение ще бъде изключително сложно да се изключи и постави под контрол.

Снимка 320046

Източник: iStock

Манипулиране на общественото мнение 

Социалните мрежи, благодарение на автоматичните алгоритми, са много ефективни в целевия маркетинг. 

Те знаят кой сте, какво ви харесва и също стават много добри в това да предполагат какво мислите. 

Още е в ход разследването за Cambridge Analytica и други сродни компании, които са използвали данни от 500 милиона потребители на Facebook, за да прогнозират резултатите от президентските избори в САЩ през 2016 г. и резултатите от референдума за Brexit във Великобритания. Ако обвиненията бъдат потвърдени, това ще покаже огромните възможности за изкуствен интелект в областта на манипулирането на общественото мнение.

Чрез разпространението на пропаганда насочена към хора, определени от алгоритми и по лични данни, изкуственият интелект може да разпространява всякаква информация, която се изисква - във формат, който изглежда най-убедителен, без значение дали е вярно или не. 

Вмешателство в частния живот 

В момента може да се проследява и анализира всяка стъпка на човек в интернет, както и това, което всеки прави като част от неговия бизнес. 

Камерите са почти навсякъде, а механизмите за разпознаване на лица позволяват да се разберете кой сте. 

Тези механизми допринасят за развитието на социална кредитна система в Китай, която дава на всеки гражданин определено количество точки въз основа на неговото поведение. 

Оценяват се нарушения като преминаване на пътя при червена светлина, пушене на неподходящи места, колко време човек прекарва във видео игри. 

Big Brother наистина ни наблюдава и взема решения въз основа на тези данни. Това не е само намеса в личния живот, но може бързо да доведе до социално потисничество, страхуват се анализатори.

Снимка 331779

Източник: iStock

Несъответствието между нашите цели и целите на машината 

Хората оценяват машините с изкуствен интелект по тяхната ефективност при решаването на определени задачи. 

Но ако не поставим ясни цели, например, на безпилотния автомобил, тогава тя може да бъде опасна, тъй като колата ще има различни цели от нас. 

Например командата "да ме отведе до летището колкото е възможно по-скоро" може да доведе до тежка катастрофа заради висока скорост. Ако не програмираме предварително, че правилата на пътя трябва да се спазват във всеки случай, автомобилът може да изпълни искането буквално и да достави на летището възможно най-бързо, но оставяйки много жертви по пътя си. 

Или автопилотът да не избере правилно: кого да спаси - пешеходец дете или самата кола. 

Дискриминация 

Тъй като машините могат да събират, проследяват и анализират всички данни за вас, е вероятно тези машини да използват тези данни срещу нас. 

Лесно е да си представим, че застрахователната компания ви отказва, въз основа на данните за това колко пъти ви е хванала камерата, когато шофирате с телефон в ръка. 

Или потенциален работодател може да ви откаже работа въз основа на вашия "социален рейтинг".