Изкуственият интелект все по-уверено навлиза в разработката на софтуер — и все повече компании му поверяват писането на код. Но ново изследване на компанията за киберсигурност DryRun Security разкрива тревожна картина: 87% от заявките за промяна на код, генерирани от водещи AI агенти, съдържат поне една уязвимост в сигурността.

Докладът, публикуван в началото на март, е първият по рода си, оценяващ не изолирани фрагменти код, а пълни приложения, разработени от край до край от три от най-популярните AI инструмента за програмиране — Claude на Anthropic, Codex на OpenAI и Gemini на Google.

Vibe Coding: Революция в IT или гигантски риск за бизнеса

Vibe Coding: Революция в IT или гигантски риск за бизнеса

Идеята за програмиране без програмисти е прекрасна, но реалността е много по-сложна

Агентите са били натоварени да изградят две цялостни приложения: уеб платформа за проследяване на хранителни алергии в семейството и браузърна състезателна игра. Всяка стъпка от разработката беше сканирана за уязвимости в реално време.

След 38 сканирания са били идентифицирани общо 143 проблема. Claude е завършил с най-много неотстранени критични уязвимости в готовите приложения, Gemini се нарежда в средата, а Codex показа най-добри резултати — и по брой финални проблеми, и по способност да коригира грешки в хода на разработката.

Независимо от тези различия, нито един от агентите не е произвел напълно сигурно приложение. Всеки краен продукт съдържа четири категории уязвимости, свързани с автентикацията: незащитено управление на JSON Web Token, липса на защита срещу brute force атаки, уязвимост към повторно използване на токени и несигурни конфигурации по подразбиране.

"AI агентите за програмиране могат да генерират функционален код с невероятна скорост, но съображенията за сигурност не са вградени в процесите им," коментира Джеймс Уикет, главен изпълнителен директор на DryRun Security.

От Vibe Coding до Agent Engineering: Защо днес масово се програмира на... английски

От Vibe Coding до Agent Engineering: Защо днес масово се програмира на... английски

Софтуерната индустрия някога "изяде" всички други, но сега изглежда заплашена от същата съдба

Тази констатация не е изолирана. Тя намери потвърждение и в реален скандал, разтърсил технологичната общност през последните седмици. Moltbook — социална мрежа, управлявана изцяло от AI агенти, в която ботове публикуват, отговарят и взаимодействат без човешка намеса, се превърна за кратко в най-обсъждания експеримент в интернет. Автономните агенти си изграждаха собствено общество, образуваха групи и дори одумваха хората.

После cybersecurity компанията Wiz публикува доклад, разкриващ масивен пробив в сигурността: неправилно конфигурирана база данни е изложила публично 1,5 милиона API ключа и 35 000 имейл адреса на потребители. Стана ясно и че огромна част от активността в Moltbook е дирижирана от доста ограничен кръг OpenClaw агенти. Всичко това разбира се не попречи на Meta да придобие сайта с предимно PR цел.

Amazon си направиха AI бот програмист и той срина основен бизнес за половин ден

Amazon си направиха AI бот програмист и той срина основен бизнес за половин ден

На Kiro били дадени твърде големи правомощия

Дано сега той да стане и по-сигурен. Изтичането на данни от него не е в резултат от сложна хакерска атака. Разработчиците са изградили платформата чрез т.нар. "vibe coding" — програмиране с AI на висока скорост и с прескачане на стъпки, и в бързината са пропуснали уязвимостите, които самите агенти са вградили в кода.

Изследователи от Columbia University, анализирали поведението на водещите AI инструменти за програмиране, установяват три системни причини за тези провали.

  • Първо, моделите са оптимизирани за бързина, не за безопасност — когато трябва да отстранят грешка, те нерядко просто премахват проверките за сигурност, за да "накарат кода да работи".
  • Второ, AI не разбира контекста на цялата кодова база и промяна в един файл може да отвори пробив в друг.
  • Трето, и може би най-важното — моделите не разбират защо съществува дадена защита. За тях тя е просто синтактична пречка.

Затова в AI кода можете да видите директно сложени данни за API удостоверяване или команди за отваряне на публичен достъп към бази данни (както стана с Moltbook). Кодът работи ли - работи. Това е важно за агента, чийто принцип на работа изисква винаги да може да даде отговор на човешкото запитване.

Още по-драматични са заключенията от експеримент на Alibaba за това как се справят ботовете, когато трябва в рамките на месеци да поддържат даден софтуерен проект с промени в изискванията и премахване и добавяне на различни функционалности. Резултатът - пълен крах.

Изводът е ясен: колкото повече бизнесът разчита на AI за писане на код, толкова по-наложително е непрекъснатото наблюдение на сигурността в реално време — не след като продуктът е готов, а по време на самото му изграждане.