Съоснователят на Skype Яан Талин идентифицира най-големите заплахи за съществуването на човечеството през този век.

Докато извънредните климатични ситуации и пандемията на коронавируса се разглеждат като проблеми, които изискват спешни глобални решения, Талин коментира пред CNBC, че най-големите екзистенциални рискове до 2100 година ще произхождат от изкуствения интелект и синтетичната биология.

"Изменението на климата няма да бъде екзистенциален риск, освен ако не съществува сценарий да го избегнем." А такива има много.

Организацията на обединените нации призна кризата с климата като "определящ въпрос за нашето време", като определи въздействието й като глобално и безпрецедентно по мащаб. Международната група също така предупреди, че има тревожни доказателства, които предполагат, че "важни повратни точки, водещи до необратими промени в основните екосистеми и планетарната климатична система, може вече да са били достигнати".

Позовавайки се на книга от оксфордския професор Тоби Ор, Талин казва, че има шанс един на шест души да не оцелеят през този век. Една от най-големите потенциални заплахи в близко бъдеще е именно изкуственият интелект, се посочва в книгата. Междувременно трудът констатира и че вероятността климатичните промени да причинят човешко изчезване са по-малко от 1%.

Синтетичната биология е проектирането и конструирането на нови биологични части, устройства и системи, посочва Талин. Той обаче е по-притеснен именно от развитието на технологиите за изкуствен интелект (ИИ), поради което инвестира милиони долари, за да се опита да гарантира, че технологията се развива безопасно. Това включва ранни инвестиции в лаборатории за изкуствен интелект като DeepMind (отчасти, за да може той да следи какво правят) и финансиране на изследвания за безопасност на изкуствения интелект в университети като Оксфорд и Кеймбридж.

Илън Мъск и неговата сложна връзка с общността зад изкуствения интелект

Нещо не е, както трябва да бъде

Предсказване на бъдещето на ИИ

Що се отнася до ИИ, никой не знае колко интелигентни ще станат машините - невъзможно е да предвидим колко напреднали ще бъдат ИИ технологиите през следващите 10, 20 или 100 години. Опитът да се предскаже бъдещето на ИИ се усложнява допълнително от факта, че системите за ИИ започват да създават други системи за ИИ без човешки принос.

По думите на съоснователя на Skype съществуват два основни сценария, които трябва да се изследват за безопасността на ИИ. Първият е лабораторен инцидент, при който изследователски екип оставя през вечерта ИИ система да се тренира на няколко компютърни сървъри, а на сутринта "светът вече го няма". Вторият е, когато изследователският екип произвежда просто технология, която след това се възприема и прилага към различни домейни, "което в крайна сметка ще има нещастен ефект". Експертът е по-фокусиран върху първия негативен сценарий, защото учените мислили по-малко върху него.

Отворени и затворени лаборатории

Най-големите технологични компании в света отделят милиарди долари за подобряване на състоянието на ИИ. Въпреки че някои от техните изследвания се публикуват открито, голяма част от тях не се и това повдига тревога.

Някои компании приемат безопасността на ИИ по-сериозно от други, казва още Талин. DeepMind например поддържа редовни контакти с изследователи по безопасност на изкуствения интелект на места като Института за бъдещето на човечеството в Оксфорд. В него работят и десетки хора, които са фокусирани върху безопасността на ИИ.

В другия край на скалата корпоративните центрове като Google Brain и Facebook AI Research са по-малко ангажирани с общността за безопасност на ИИ. И двете компании не коментират темата след запитване на CNBC.

Нови технологии, нови предизвикателства: Дискриминацията в изкуствения интелект

Нови технологии, нови предизвикателства: Дискриминацията в изкуствения интелект

Могат ли историческите предубеждения да се пренесат в новите технологии?

Според Талин в ИИ могат да се изолират много проблеми. Един от тях е расизмът. Ако това се случи, ще бъде по-добре в света да има по-малко участници в играта. Той дава за пример технологията за изобретяването на ядрената бомба и това колко изследователски групи от различни страни всъщност са работили по технологията. "Мисля, че ситуацията е подобна", казва още той.

"Ако се окаже, че изкуственият интелект няма да бъде много разрушителен в скоро време, тогава със сигурност би било полезно компаниите да се опитват да решат някои от проблемите по по-добре разпределен начин", допълва още Талин.

4 от най-зловещите прогнози, свързани с изкуствения интелект

4 от най-зловещите прогнози, свързани с изкуствения интелект

От масова безработица до унищожителна война, вариантите са наистина плашещи