Милитаризацията на изкуствения интелект вече не е хипотеза, а твърд залог в новата геополитическа реалност. OpenAI преговаря за партньорство с НАТО, а Anthropic влезе в открит сблъсък с Пентагона. За разлика от повечето други AI сюжети, тук водещи не са парите, а т. нар. guardrails - етичните софтуерни бариери, които пречат на даден чатбот да ви каже например как да сглобите бомба или как да проследите политически дисидент.
Основното искане на Пентагона към разработчиците на AI услуги е премахването на етичните филтри, които пречат на моделите да вземат решения за използване на сила при евентуални военни действия.
По-рано компанията Anthropic отказа да премахне механизмите си за безопасност на своите модели - единствените до момента с достъп до класифицираната мрежа на американските военни. В отговор президентът на САЩ Доналд Тръмп нареди правителството да спре работата с тях.
За стратезите предпазните механизми са пречка, която пречи на модела да разгърне потенциала си на бойното поле. Дарио Амодей от Anthropic обаче не отстъпва от позицията, че огромната мощ на технологията трябва да бъде под контрол и да не се използва от автономни оръжия и системи за масово следене на американци.
Софтуерният код е новият ядрен арсенал. Разликата е, че ядреното оръжие е за възпиране, а AI може да бъде и за ежедневна употреба и за невидимо икономическо, тактическо и стратегическо превъзходство над противника, още преди първият изстрел да е произведен.
Така Anthropic бяха отстранени - както от Пентагона, така и по последни информации от системите на някои подизпълнители като Lockheed Martin, а OpenAI подписаха договор като заместник на компанията на Амодей.
Въпреки всички уверения на Сам Алтман от OpenAI, че "червените линии" са същите като на Anthropic, деинсталациите на chatGPT от редови потребители скочиха с близо 300% и по-късно той заяви, че договорът с военните се предоговаря за допълнителни гаранции. Междувременно Anthropic си търсят правата в съда.
На този фон OpenAI може да се сдобият с още един военен клиент - и то не кой да е, а НАТО.
Първи за идеята на компанията да внедрява технологията си в "некласифицираните" мрежи на военния съюз съобщиха от The Wall Street Journal. Дали това е прелюдия към пълното внедряване на AI във всички процеси на алианса няма как да знаем.
Добре е обаче да отбележим, че както Алтман, така и Амодей говорят за това, че не подкрепят масовото следене на американски граждани. За останалия свят нямат коментар.
Макар някои експерти да правят паралел с ядреното оръжие - и да призовават за неразпространение и ограничаване на капацитета чрез международни споразумения, очевидно е, че това е много трудно да се случи - най-малкото защото вече AI е на бойните полета.
"AI днес е абсолютно стратегически и ще се използва все повече за всякакви цели. Със сигурност всяка държава, която не знае как да използва тези модели, да ги създава, модифицира, наглася и т.н. за специфичните си нужди (вкл. и защити от AI атаки върху критична инфраструктура), ще има огромни проблеми и ще е непрекъснато под огромен риск", споделя в своя фейсбук акаунт основателят на INSAIT Мартин Вечев.
Тук има и друг важен момент. За по-малките държави и организации, милитаризацията на AI създава огромна пропаст. Ако не притежават технологичния капацитет да тренират и да настройват свои модели, те ще станат изцяло зависими от чужд софтуер - дали американски, или китайски.
А всеки софтуер може да има вградена "задна вратичка" или да бъде спрян с едно политическо решение. Тогава все по-зависимите от AI процеси на планиране и координация може да се окажат тотално неизползваеми в най-неподходящия момент.

USD
CHF
EUR
GBP