Следващият път, когато използвате ChatGPT, за да улесните работата си върху ежедневните професионални задачи, се замислете върху следния факт - тази технология има и своята тъмна страна.
Криминални субекти от цял свят се надпреварват да измислят начини, чрез които да се възползват от предимствата на подобни платформи за съвсем незаконни задачи. Добър пример в тази посока може да се види в доклад на NordVPN, според който обемът на публикациите, свързани с ChatGPT във форумите на тъмния интернет, нараства с 145% през януари и февруари 2023 г. Това включва и публикации, които обсъждат как утвърдените NLP умения на бота могат да бъдат използвани за кампании по спиър-фишинг и социално инженерство.
Големите езикови модели и големите рискове, свързани с тях
Престъпниците не само използват ботове, разработени от законни технологични компании като Google, Microsoft и OpenAI, но има и тревожен тренд на появата на нови "тъмни" субекти като WormGPT и FraudGPT, които са разработени специално за злонамерени цели. Общото между всички тях, било то законни или злонамерени, е, че са задвижвани от големи езикови модели (LLMs).
Те представляват модели на изкуствения интелект, които използват техники за дълбоко обучение (deep learning techniques), предназначени за разбиране и генериране на човешки език. LLM обикновено се обучават върху огромни количества разнообразни текстове като книги, статии, уебсайтове и други източници, за да научат статистически модели, връзки и езиковата структура в данните.
Големите езикови модели се справят отлично с различни видове естествен език (NLP), включително попълване на текстове, анализ на настроения, езиков превод и отговаряне на въпроси. Те използват техники на генеративния изкуствен интелект, за да генерират последователен и контекстуално релевантен текст, имитирайки човешкия език.
Как престъпниците използват изкуствения интелект?
Chat GPT е точно такъв езиков модел, разработен от лабораторията OpenAI. Той, както и други разработени от различни технологични компании ботове, включват функции за сигурност, предназначени да предотвратят злонамереното използване на технологията. Много от тези защити обаче могат лесно да бъдат заобиколени и избегнати чрез определени техники.
Злонамерени субекти могат да използват големите езикови модели, за да ускорят скоростта и обхвата, с които извършват незаконни дейности, сред които киберпрестъпност, финансови престъпления, трафик на хора, както разпространение на дезинформация и фалшиви новини. Можем да бъдем сигурни, че с темпа на развитието на тази технология, престъпниците ще намерят начин да я използват и да доразвият потенциала й, за да ускорят и други видове престъпни дейности.
ФБР, а също и "Европол", наскоро официално оповестиха това, че престъпници могат да използват генеративния изкуствен интелект и големите езикови модели по множество начини, чрез които да си помагат в ускоряването на престъпни дейности в кибер пространството.
Атаки от нов, по-опасен вид
Големите езикови модели (ГЕМ) предоставят възможност за създаване на по-убедителни и легитимно изглеждащи фишинг имейли и това да става в голям мащаб. Като автоматизират създаването на изключително убедителни фалшиви имейли, персонализирани спрямо получателя, престъпниците могат да увеличат шансовете за успех на своите атаки.
Освен бързото генериране на текст на база прости насоки, ГЕМ могат да използват оригинална документация като имейли от легитимен доставчик на плащания за съставяне на съдържание, което имитира стилът на писане, тонът и често използваните думи на истинския автор.
Престъпници могат също така да се възползват от ГЕМ, за да работят с автоматизирани ботове, които могат убедително да имитират стила на комуникация на реални лица или представители на обслужване на клиенти, за да помогнат в измамите, свързани с фишинг имейли или злонамерени уебсайтове.
Също така експертите вече наблюдават първите случаи, в които киберпрестъпници използват ChatGPT за разработване на злонамерен софтуер. ChatGPT занижава нивото на знанията и уменията , които IT специалистите следва да притежават и така се създават предпоставки за повече "потенциални хакери", имащи за цел да създадат ефективно работещ злонамерен софтуер. Технологията на ChatGTP прави по-лесно за тези, които нямат обширни познания в разработката или уменията за програмиране да създават много по-сложни програми отколкото реалните умения им позволяват.
Последните данни от компанията за киберсигурност Checkpoint показват, че ChatGPT успешно може да извърши пълния процес на кибер престъпление, започвайки от създаването на убедителен имейл за специфичен фишинг до изпълнението на атака с обратна обвързаност. Според скорошно проучване, проведено от Blackberry, 51% от лицата, вземащи решения в областта на информационните технологии, вярват, че в следващите 12 месеца ще има успешна кибератака, като виновникът ще бъде изцяло и категорично ChatGPT.
И тук идва логичният въпрос - има ли как да се предпазим от подобни атаки? Отговорът се крие отново в употребата на изкуствения интелект, но с обратен знак - когато използването му става за анализ на опасностите, а не за създаването им. Можем да дадем пример с компанията Cognyte, която разработва решения за разследващ анализ, които стъпват върху същите модерни технологии.