Microsoft харчи десетки милиарди долари, за да убеди света, че изкуственият интелект е бъдещето на работата. И то не кой да е изкуствен интелект, а Copilot платформата.
Само през фискалната 2025 година компанията е инвестирала около 80 милиарда долара в изграждане на дата центрове за AI инфраструктура, а общите капиталови разходи за последните две тримесечия надхвърлят 72 милиарда долара. Copilot е вграден в Windows 11, в Microsoft 365 и се рекламира агресивно като инструмент за бизнес продуктивност.
Затова е меко казано иронично, че в Условията за ползване на Copilot пише следното: "Copilot е само за развлекателни цели. Може да допуска грешки и да не работи по предназначение. Не разчитайте на Copilot за важни съвети. Използвайте го на собствен риск."
Документът е актуализиран през октомври, но привлече широко внимание едва наскоро, след като потребители го споделиха в социалните мрежи.
Не само Microsoft
Подобни клаузи не са изключение. xAI — компанията на Илон Мъск зад Grok — предупреждава, че AI моделите може да генерират "халюцинации", да бъдат обидни или да не отразяват точно реални факти.
Според коментар в Hacker News, Anthropic пък заменя раздел в условията за ползване на платените планове при достъп от европейски IP адрес с текст, освобождаващ компанията от отговорност при търговска употреба на Claude — парадокс за план, наречен "Pro".
Тези предупреждения не са нови за хората, запознати с начина, по който работят езиковите модели. По-тревожното е, че много потребители, включително технически специалисти, третират AI отговорите като абсолютна истина.
Проблемът не е само в незнанието. Психолозите отдавна описват феномена "автоматизационно пристрастие" — склонността на хората да се доверяват на резултати, генерирани от машини, дори когато данните сочат друго. AI усилва тази тенденция, защото генерира текстове, които изглеждат убедителни и достоверни на пръв поглед.
Последствията са осезаеми. Amazon претърпя няколко сериозни инцидента, свързани с промени, асистирани от генеративен AI — проблеми, наложили намесата на старши инженери. В друг случай AWS сирв беше причинен от AI coding бот, на когото инженери предоставили пълна автономност.
На демонстрации в Лондон самите представители на Microsoft предупреждаваха, че Copilot не може да се ползва без човешка проверка — послание, което рядко се чува в рекламните кампании.
USD
CHF
EUR
GBP