Модерирането на онлайн съдържание е тежка, зле платена и, като цяло, неблагодарна работа, без която, обаче, съвременните платформи просто не могат да съществуват. Напредъкът на технологиите може да промени това и голяма част от дейностите по премахване на непозволени публикации може да се автоматизират с помощта на изкуствения интелект.
Поне така смятат създателите на ChatGPT от OpenAI, които използват неговия езиков модел за собствените си модераторски цели.
Детайли: Съдържанието на платформите на OpenAI се модерира със система, базирана на модела GPT-4, като резултатите ѝ са по-добри от тези на човешки модератор с базова подготовка, но все още не са на нивото на най-опитните специалисти.
Голям неин плюс е, че тя участва на всички етапи от процеса - от създаването на политиките по отношение на съдържанието до прилагането им.
Така хората не трябва да минават през хиляди потенциално проблематични публикации, а по-скоро влизат в ролята на съветници, които насочват общата посока на работа на системата.
Още нещо: Подобна промяна в начина на модериране на съдържанието е особено необходима именно заради AI. В момента злонамерените потребители могат да генерират за секунди огромно количество съдържание, което би изисквало в пъти повече модератори.
От друга страна: За много компании AI е преди всичко начин за спестяване на разходи от заплати. Затова и далеч не всички инвестират в подобряването на системите си така, че наистина да се спира само непозволеното съдържание - но пък и да се спира без изключение.