Малко повече от половин година по-късно въпросът не е какво знаем за ChatGPT, а какво знае той за нас. Чат ботът с изкуствен интелект стана най-бързо набиращото популярност приложение в историята - милиони хора всеки ден го питат за какво ли не: рецепти, справки, идеи, юридически или технически казуси. И той отговаря... но и помни.
Все повече стават компаниите, които забраняват на служителите си да използват ChatGPT за работа заради опасения от изтичане на информация - Samsung, Apple, JPMorgan, Citigroup и още много. За кратко платформата не работеше в Италия заради разследване на местните власти за начина, по който се събира, обработва и съхранява личната информация. Защо е цялото това притеснение?
Контекст: В ChatGPT няма нищо божествено. Това е набор от алгоритми, обучени на огромни масиви от информация, с помощта на които създават смислен според предварително заложени критерии текст като отговор на потребителските задания.
Когато говорим за текстове, съдържащи почти цялото запазено писмено слово в света, имаме съвсем реален риск от попадане сред тях на информация, чието място не е там. Освен това, обаче, и ние самите можем да се окажем в положение да захранваме изкуствения интелект с неща, които не бива да знае.
Детайли: Има няколко основни заплахи за поверителната информация, когато тя бъде споделена с ChatGPT:
- Разговорите се използват за обучаване на модела - това е един от най-главните проблеми. Ако питате бота за много конкретни казуси и дадете сериозен контекст, има голяма вероятност фактите от тази беседа след това да се окажат част от набора от отговори на ChatGPT. Не е изключено така някой да попадне на ваша лична или служебна информация случайно, но освен това всеки хакер с умения в социалното инженерство ще се опитва да "разпита" AI, за да го подведе да сподели информацията, която вече сте му казали. Ако пък моделът е общодостъпен, даже ще е достатъчно да разполага с достатъчно мощен хардуер, за да намери това, което търси.
- Какво ще стане, ако хакер или вътрешен човек "завземе" ChatGPT - комуникацията ви се съхранява на сървърите на компания, която, подобно на всички останали, е уязвима. Всъщност, през март тази година OpenAI трябваше бързо да поправят грешка в кода, която даваше неоторизиран достъп до чужди разговори с ChatGPT. Служителите на компанията имат достъп до системите, също както и някои външни подизпълнители. Никога не може да се изключи злонамерено действие от страна на вътрешен човек.
В прав текст: "Най-добре е да приемете, че всеки по света може да прочете това, което сте написали някъде в интернет - имейли, блогове, социални мрежи, AI платформи. Не публикувайте нищо, което не искате да бъде прочетено", коментира пред Mashable експертът проф. Гари Смит.
Иначе казано, не споделяйте с бота нищо, което не бихте казали в компанията на група непознати. И не забравяйте, че това не е инструмент като Excel - тук всяка единица ваши данни отива някъде другаде и след това се използва с цели, които не винаги са ясни. Затова и резюмирането на протоколи от поверителни срещи и търсенето на проблеми в кода на важна нова функционалност не са места, където да използвате AI.
Какво можете да направите: Някои от принципните проблеми на AI платформите могат да се решат само тогава, когато работите локално с езиковия модел и имате пълен контрол. Това с ChatGPT все още не е възможно, но поне можете да го спрете да използва разговорите, за да се самообучава.
Това става през настройката Chat History & Training. Така обаче губите историята на разговорите си, а освен това информацията продължава да се пази на сървърите на OpenAI за 30 дни и то - неясно как.