Изкуственият интелект е най-трансформиращата технология, която човечеството е разработило от десетилетия насам - най-важният скок след появата на интернет. Потенциалът му да преобрази радикално икономиките и обществно-политическите системи вече се проявява.
Както при много нови технологии, възможностите за злоупотреба с AI се увеличават драстично, когато той попадне в ръцете на правителствата, пише в портала GIS Reports швейцарският експерт в сферата на алтернативните инвестиции Вахан Рот.
Опасната наклонена плоскост
Годините наред застъпниците на поверителността предупреждават за последиците от непрестанния правителствен надзор. Приложенията за разпознаване на лица, инструментите за масово събиране на данни и алгоритмите за "полицейска дейност, водена от разузнаване" отдавна се използват активно, но скорошният взрив в иновациите на AI ще направи въздействието им още по-значително.
"Предпрестъпност" - концепция от научнофантастичния филм Minority Report ("Специален доклад"), вече не изглежда толкова далечна. Предиктивната полицейска дейност, базирана на изкуствен интелект, включва анализ на огромни масиви данни от полицейски доклади, записи за арести и социална, демографска или географска информация, за да предскаже къде може да се случат бъдещи престъпления и кой може да е замесен.
Утрешните версии на тези инструменти ще могат да предоставят много по-специфични резултати. Вместо прогнози, базирани на местоположение, конкретни хора могат да бъдат маркирани като високорискови, дори ако не са извършили престъпление. Това, което държавите решат да направят с тази информация, ще определи дали създават общество, в което гражданите се третират като заподозрени - виновни до доказване на противното.
Друга оруелска възможност е злоупотребата с инструменти на AI за централизиране на властта и налагане на подчинение чрез потискане на свободата на словото или разпространение на пропаганда. Вече видяхме как изображения и видеоклипове, генерирани от изкуствен интелект (дийпфейкове), стават почти неразличими от истинските. Правителствата биха могли да фабрикуват доказателства, да дискредитират журналисти и да очернят политически опоненти, както и да създават изцяло фиктивни наративи за оправдание на политически злоупотреби.
Към тези притеснения се добавя перспективата за системи на "социален кредит" като в Китай. Инструменти, базирани на AI, биха могли да комбинират финансова информация, социално поведение, политически уклон и изразени мнения в цялостна система за оценяване.
Още по-тревожно е, че биха могли автоматично да разпределят награди и наказания, като централизират достъпа до основни услуги като банкиране, жилища или здравеопазване.
Военни приложения и етническо прочистване
Рисковете се умножават експоненциално при военните приложения. Системи за насочване, подпомогнати от AI, биха могли да идентифицират и атакуват специфични етнически или политически групи, улеснявайки престъпления срещу човечеството, предупреждава Рот.
Развитието на полуавтономни оръжия като дронове вече демонстрира колко бързо може да се увеличи скоростта на разрушение. Психологически е много по-лесно за пилот на дрон да стреля по точка на екрана, отколкото за войник на терена да прави същото.
Ако този последен човешки елемент бъде премахнат и решенията кой живее или умира се делегират напълно на машини, стойността на човешкия живот ще се доближи до нулата.
Край на отчетността?
В края на 70-те години IBM включи следното изявление в обучителните си материали: "Компютърът никога не може да носи отговорност, следователно компютърът никога не трябва да взема управленско решение." Това звучи днес по-актуално от всякога.
Правителствените бюрокрации така или иначе имат проблем с отчетността, а AI ще увеличи този проблем до безпрецедентна степен. С непрозрачни системи от тип "черна кутия" начело, ще бъде безкрайно по-трудно да се търси отговорност от когото и да е.
Когато тези системи станат отговорни за решения относно полицейска дейност, обществена безопасност или здравеопазване, грешките могат непоправимо да разрушат живота на хората. И фалшивите положителни, и фалшивите отрицателни резултати може сериозно да навредят на невинни граждани, които ще имат малко или никакъв шанс да оспорят решенията.
Сценарии за бъдещето
За съжаление, AI надпреварата между държавите изглежда невъзможна за спиране. Спешността за разработване и контрол на най-усъвършенстваните системи е несъмнена. Най-вероятният сценарий е, че антиутопичното бъдеще ни очаква по-скоро, отколкото се надяваме.
Единственият реалистичен начин този курс да бъде коригиран е силна и ефективна обществена опозиция, преди системите на AI да се вкоренят твърде дълбоко в управленските процеси. Това изисква ясен обрат в общественото мнение, достатъчно решителен, за да направи политически неосъществими тези политики.
Това обаче изглежда малко вероятно понастоящем - "умните" обществени услуги изглеждат удобни, а и не е нужен PR гений, за да се раздуха колко по-безопасен става животът с тяхна помощ...



USD
CHF
EUR
GBP
samesomeone
на 20.10.2025 в 16:00:53 #1Това, което доклади от този род, вид и стилистика пропуштат е, че... ... .... .... и ... !