Малко повече от половин година по-късно въпросът не е какво знаем за ChatGPT, а какво знае той за нас. Чат ботът с изкуствен интелект стана най-бързо набиращото популярност приложение в историята - милиони хора всеки ден го питат за какво ли не: рецепти, справки, идеи, юридически или технически казуси. И той отговаря... но и помни.

Все повече стават компаниите, които забраняват на служителите си да използват ChatGPT за работа заради опасения от изтичане на информация - Samsung, Apple, JPMorgan, Citigroup и още много. За кратко платформата не работеше в Италия заради разследване на местните власти за начина, по който се събира, обработва и съхранява личната информация. Защо е цялото това притеснение?

Заплаха за националната сигурност? САЩ искат да регулират изкуствения интелект

Заплаха за националната сигурност? САЩ искат да регулират изкуствения интелект

Бързата инвазия на технологиите притесни администрацията на Джо Байдън

Контекст: В ChatGPT няма нищо божествено. Това е набор от алгоритми, обучени на огромни масиви от информация, с помощта на които създават смислен според предварително заложени критерии текст като отговор на потребителските задания.

Когато говорим за текстове, съдържащи почти цялото запазено писмено слово в света, имаме съвсем реален риск от попадане сред тях на информация, чието място не е там. Освен това, обаче, и ние самите можем да се окажем в положение да захранваме изкуствения интелект с неща, които не бива да знае.

Какво представлява Законът на ЕС за изкуствения интелект и от какво ще ни пази

Какво представлява Законът на ЕС за изкуствения интелект и от какво ще ни пази

Опасни ли са новите технологии?

Детайли: Има няколко основни заплахи за поверителната информация, когато тя бъде споделена с ChatGPT:

  • Разговорите се използват за обучаване на модела - това е един от най-главните проблеми. Ако питате бота за много конкретни казуси и дадете сериозен контекст, има голяма вероятност фактите от тази беседа след това да се окажат част от набора от отговори на ChatGPT. Не е изключено така някой да попадне на ваша лична или служебна информация случайно, но освен това всеки хакер с умения в социалното инженерство ще се опитва да "разпита" AI, за да го подведе да сподели информацията, която вече сте му казали. Ако пък моделът е общодостъпен, даже ще е достатъчно да разполага с достатъчно мощен хардуер, за да намери това, което търси.
  • Какво ще стане, ако хакер или вътрешен човек "завземе" ChatGPT - комуникацията ви се съхранява на сървърите на компания, която, подобно на всички останали, е уязвима. Всъщност, през март тази година OpenAI трябваше бързо да поправят грешка в кода, която даваше неоторизиран достъп до чужди разговори с ChatGPT. Служителите на компанията имат достъп до системите, също както и някои външни подизпълнители. Никога не може да се изключи злонамерено действие от страна на вътрешен човек.

В прав текст: "Най-добре е да приемете, че всеки по света може да прочете това, което сте написали някъде в интернет - имейли, блогове, социални мрежи, AI платформи. Не публикувайте нищо, което не искате да бъде прочетено", коментира пред Mashable експертът проф. Гари Смит.

Изкуственият интелект на Microsoft бърка данни, години и факти

Ще се спука ли AI балонът: Новият чат бот на Microsoft прави фрапантни грешки

Софтуерният инженер Дмитри Бреретон откри сериозни недостатъци още в демонстрацията на AI търсачката на Bing

Иначе казано, не споделяйте с бота нищо, което не бихте казали в компанията на група непознати. И не забравяйте, че това не е инструмент като Excel - тук всяка единица ваши данни отива някъде другаде и след това се използва с цели, които не винаги са ясни. Затова и резюмирането на протоколи от поверителни срещи и търсенето на проблеми в кода на важна нова функционалност не са места, където да използвате AI.

Какво можете да направите: Някои от принципните проблеми на AI платформите могат да се решат само тогава, когато работите локално с езиковия модел и имате пълен контрол. Това с ChatGPT все още не е възможно, но поне можете да го спрете да използва разговорите, за да се самообучава.

Това става през настройката Chat History & Training. Така обаче губите историята на разговорите си, а освен това информацията продължава да се пази на сървърите на OpenAI за 30 дни и то - неясно как.