Базираната в САЩ компания за изкуствен интелект Anthropic заведе дело в понеделник срещу администрацията на Тръмп, твърдейки, че правителството на САЩ е предприело репресивни мерки срещу фирмата за отказа ѝ да позволи използването на модела на изкуствения интелект Claude за автономна смъртоносна война и масово наблюдение на американци, предават световните медии.

В 48-страничната жалба, подадена във федералния съд в Сан Франциско, Anthropic иска определянето ѝ като риск за веригата за доставки на националната сигурност да бъде обявено за незаконно и блокирано. В иска си Anthropic заявява, че е основан на убеждението, че нейният изкуствен интелект трябва да се "използва по начин, който максимизира положителните резултати за човечеството" и трябва да "бъде най-безопасният и най-отговорният".

"Anthropic завежда този иск, защото федералното правителство е предприело мерки срещу нея, защото нарушава веригата за доставки", се казва в иска. Anthropic е първата американска компания, публично обозначена като такава - това е етикет, обикновено запазен за организации от чуждестранни враждебни държави, като например случая с китайския технологичен гигант Huawei.

Anthropic се опълчи на Пентагона и поема грандиозен риск

Компанията зад най-мощния AI модел се опълчи на Пентагона и поема грандиозен риск

Залогът - могат ли военните да правят каквото си искат с изкуствения интелект

Етикетът не само блокира използването на технологията на компанията от Пентагона, но и изисква от всички доставчици и изпълнители в областта на отбраната да удостоверят, че не използват моделите на Anthropic в работата си с отдела.

"Последиците от това дело са огромни", се казва в иска, като правителството "се стреми да унищожи икономическата стойност, създадена от една от най-бързо развиващите се частни компании в света".

Снимка 740140

Източник: ChatGPT

В иска са посочени повече от дузина федерални агенции и служители на кабинета като ответници. Спорът избухна, след като Anthropic разгневи шефа на Пентагона Пийт Хегсет, като настоя, че технологията ѝ не трябва да се използва за масово наблюдение или напълно автономни оръжейни системи. Впоследствие президентът Доналд Тръмп нареди на всяка федерална агенция да прекрати всякакво използване на технологията на Anthropic.

Часове по-късно Хегсет определи Anthropic като "риск за веригата на доставки за националната сигурност" и нареди, че никой военен изпълнител, доставчик или партньор "не може да извършва каквато и да е търговска дейност с Anthropic", като същевременно позволи шестмесечен преходен период за самия Пентагон.

Спорът избухна дни преди военния удар на САЩ срещу Иран. Claude е най-широко разпространеният модел на граничен изкуствен интелект на Пентагона и единственият такъв модел, който в момента работи в класифицираните системи на Министерството на отбраната.

Произволно?

В иска си Anthropic твърди, че предприетите срещу нея действия нарушават Първата поправка, като наказват компанията за защитена реч относно политиката за безопасност на ИИ, превишават законовите правомощия на Пентагона и я лишават от справедлив процес съгласно Петата поправка.

"Конституцията не позволява на правителството да упражнява огромната си власт да наказва компания за защитената ѝ реч", се казва в жалбата. Повече от три дузини експерти от индустрията за ИИ от OpenAI и Google, включително главният учен на Google Джеф Дийн, пледираха в подкрепа на Anthropic в писмен документ, подаден до съда в понеделник.

Заявявайки, че изразяват мнението си като професионалисти, които изграждат, обучават или изучават ИИ, а не представляват своите компании, те призоваха съда да застане на страната на Anthropic.

"Обединени сме в убеждението, че днешните гранични системи с ИИ представляват рискове, когато се разполагат, за да се даде възможност за вътрешно масово наблюдение или за експлоатация на автономни смъртоносни оръжейни системи без човешки надзор, и че тези рискове изискват някакъв вид предпазни мерки, независимо дали чрез технически предпазни мерки или ограничения за употреба", казаха те в писмения документ.

В документа се твърди, че настоящите модели на изкуствен интелект не са достатъчно надеждни, за да им се има доверие при вземането на смъртоносни решения за насочване, а комбинирането на мощен изкуствен интелект с всички налични данни за хората заплашва да промени структурата на обществения живот в страната.

"Определянето от страна на правителството на Anthropic като риск за веригата за доставки е неправилно и произволно използване на власт, което има сериозни последици за нашата индустрия", се твърди в документа.

Основана през 2021 г. от братята и сестрите Дарио и Даниела Амодей, и двамата бивши служители на OpenAI, създателя на ChatGPT, Anthropic се позиционира като фокусирана върху безопасността алтернатива в надпреварата за изкуствен интелект.

Anthropic готви мегадебют на борсата

Основен конкурент на OpenAI готви мегадебют на борсата

Компанията е ангажирала юристи, работили преди по IPO-тата на Google и LinkedIn