Ръководството на Google издаде "червен код" на фона на пускането на ChatGPT - чат бот, създаден от OpenAI. Причината според гиганта е, че ботът предизвиква опасения за бъдещето на търсачката на Google, предава Business Insider, цитирайки The New York Times.
Главният изпълнителен директор на компанията-майка на Google, Alphabet Сундар Пичай участва в няколко срещи относно стратегията на Google за изкуствен интелект и насърчи множество групи в компанията да пренасочат усилията си към справяне със заплахата, която ChatGPT представлява за бизнеса с търсачки, според вътрешна информация и аудиозапис, цитиран от Times.
Това се отнасяло по-специално за екипи в отдела за изследвания, доверие и безопасност на Google, както и други отдели, които участват в разработването и пускането на нови AI прототипи. Някои служители дори са получили задачата да създават AI продукти, които генерират изкуство и графики, подобни на DALL-E на OpenAI, използван от милиони хора, според Times.
Ходът на Google за създаване на свое продуктово портфолио с изкуствен интелект идва в момент, когато служители и експерти на Google спорят дали ChatGPT има потенциал да замени търсачката и на свой ред да навреди на бизнес модела на Google за приходи от реклами.
Според Шридхар Рамасвами, който беше начело рекламния екип на Google между 2013 г. и 2018 г., ChatGPT може да попречи на потребителите да кликват върху връзки на Google с реклами, което е генерирало 208 милиарда долара - 81% от общите приходи на Alphabet - през 2021 г., според съобщения на Business Insider.
ChatGPT има над 1 милион потребители само пет дни след публичното си стартиране и може да предоставя уникални отговори на запитвания на разговорен език, като синтезира информация от милиони уебсайтове. Потребителите са поискали от чат бота различни неща като да напише есе за колеж например, да дава съвети за различни дейности или просто за разговор. Преди известно време Money.bg дори направи интервю с ChatGPT.
Ботът често дава грешки обаче. ChatGPT не е в състояние да провери фактите които казва и не може да направи разлика между потвърден факт и дезинформация, според експерти по изкуствен интелект. Може също така да измисля отговори, феномен, който изследователите на AI наричат "халюцинации".
Ботът е способен да генерира обидни отговори, които са расистки и сексистки, съобщи Bloomberg.
Високата честотност на грешки при чат бота и уязвимостта му към дезинформацията са сред причините, поради които Google се колебае да пусне своя AI чат бот LaMDA - съкращение от Language Model for Dialogue Applications - за обществеността, според Times.
В скорошен доклад на CNBC се казва, че мениджъри на Google не са склонни да го публикуват в сегашното му състояние, заради опасения относно "риск за репутацията" на компанията.
no-noi
на 23.12.2022 в 13:17:55 #1Голям смях, страх ги било за репутацията им, точно па гугъл тяхната търсачка беше 100 пити по добра преди 20 години защото намираше това което ти трябва, а сега се опитва да ти пробита какви ли не рекламни страници и това което търсиш е скрито