Изкуственият интелект коренно променя средата на киберсигурността, като дава много по-добри възможности за реакция, но освен това прави възможни атаки с невиждани до сега мащаб и скорост. Това заявиха в студиото на Money.bg Иван Дудин от BalkanWorks и Александър Ненков от AKAT Technologies.
Двамата експерти са част от работната група за AI на Българската асоциация по информационни технологии (БАИТ).
Дудин беше категоричен, че традиционният модел на защита на "периметъра", на Firewall-ите и на анализа на логове за аномалии вече е "мъртъв".
"Аз бих казал, че 2025-а беше година на агентите - започнаха да навлизат в обществото, бизнеса, навсякъде. Даваме им добър достъп, те самите стават все по-подобни на хората. Става много по-трудно различаването им от един нормален бизнес процес", обясни той.
Александър Ненков посочи, че тези все по-големи прилики между човешките действия и тези на изкуствения интелект водят до това, че евентуално посегателство върху данните "остава под радара", а в същото време киберударите се случват много по-бързо и много по-лесно.
Дудин допълни: "Един от най-големите проблеми за 2026 г., които виждам за анализаторите е, че те ще стоят, ще гледат мониторите и ще дискутират това всъщност атака ли е или е нормален бизнес процес". В същото време, вместо за Zero-Day атаки през все още непоправени уязвимости, ще си говорим за "Zero-Hour или дори Zero-Minutes" пробиви - в момента на откриването на слабост, AI ще се опитва да се възползва от нея.
"Защитата трябва да бъде насочена към идентичността - в един бизнес такава има не само персоналът, но и машините, които извършват дадени действия", заяви Ненков. За целта е нужно и преосмисляне на zero-trust архитектурата за новите условия - със заложените в нея непрекъснато удостоверяване на устройства и потребители, сегментиране на ресурсите и ограничаване на правата за достъп до необходимия минимум.
Трябва обаче да се отговори и на редица важни въпроси. "Първият въпрос е кой върши действието. Дали това е човек, дали е някакъв вид бот или агент. Ако не можеш да определиш това веднага, имаш проблем. Вторият проблем е защо точно в момента той прави нещо и защо има права да го прави. Ако си дал достъп на агент и той извършва процеси в необикновено време или по алогичен начин, значи отново има проблем. Третият въпрос е можеш ли да го спреш - ако нямаш копчето за kill, това вече не е помощник, а заплаха", подчерта експертът.
Иван Дудин също призова компаниите да преразгледат процесите си. По думите му AI не трябва да се разглежда като панацея, а като "усилвател на нашите действия" - както на добрите, така и на лошите.
Целия разговор гледайте във видеото!




USD
CHF
EUR
GBP