Експерти и мениджъри: Изкуственият интелект създава риск от изчезване на човечеството

Meta е едиствената голяма компания, занимаваща се с AI, чиито ръководители не са подкрепили позицията

Призивът е политиците да приравнят тази заплаха с рисковете, породени от пандемии и избухването на ядрена война.
Призивът е политиците да приравнят тази заплаха с рисковете, породени от пандемии и избухването на ядрена война.
Призивът е политиците да приравнят тази заплаха с рисковете, породени от пандемии и избухването на ядрена война.    ©  Reuters
Призивът е политиците да приравнят тази заплаха с рисковете, породени от пандемии и избухването на ядрена война.    ©  Reuters
Бюлетин: Вечерни новини Вечерни новини

Всяка делнична вечер получавате трите най-четени статии от деня, заедно с още три, препоръчани от редакторите на "Капитал"

Висши мениджъри на компании за изкуствен интелект (AI), включително главният изпълнителен директор на OpenAI Сам Олтман, се присъединиха към експерти и професори, твърдящи, че се повишава "рискът AI да доведе до изчезване на човечеството". Поради това призоваха политиците да приравнят тази заплаха с рисковете, породени от пандемии и избухването на ядрена война.

"Ограничаването на риска от изчезване, причинено от изкуствения интелект, трябва да бъде глобален приоритет наред с други рискове от обществен характер, като пандемиите и ядрената война", заявяват повече от 350 души, подписали писмото, публикувано от неправителствената организация "Център за безопасен AI" (CAIS).

Освен Олтман сред тях са главните изпълнителни директори на компаниите за изкуствен интелект DeepMind и Anthropic и ръководители от Microsoft и Google. Писмото са подписали още Джефри Хинтън и Йошуа Бенгио - двама от тримата "кръстници на AI", които заедно с третия "кръстник" Ян ЛеКун спечелиха през 2018 г. наградата "Тюринг" за работата си по т.нар. задълбочено обучаване - и професори от институции, вариращи от "Харвард" до китайския университет "Цинхуа".

"Трябва да водим разговорите, които ядрените учени са водили преди създаването на атомната бомба", казва Дан Хендрикс, директор на CAIS. "Пандемиите не бяха в полезрението на обществото преди COVID-19. Не е твърде рано да се поставят предпазни механизми и да се създадат институции, така че рисковете, свързани с AI, да не ни изненадат".

В свое съобщение CAIS посочва Meta като едиствената голяма компания, занимаваща се с изкуствен интелект, чиито ръководители не са се подписали под изявлението. Изследователстката дейност на Meta в областта се ръководи от Ян ЛеКун. Наскоро компанията направи своята технология за изкуствен интелект с отворен код.

"По-спешен" от изменението на климата

В интервю за Reuters от началото на май Джефри Хинтън, заяви, че AI може да представлява "по-спешна" заплаха за човечеството от изменението на климата. "Не бих искал да омаловажавам изменението на климата. Не бих искал да казвам: "Не трябва да се притеснявате за изменението на климата." Това също е огромен риск", заяви Хинтън. "Но мисля, че това може да се окаже по-спешно."

В края на март изпълнителният директор на Tesla Илън Мъск и експерти в областта на изкуствения интелект се подписаха под друго отворено писмо, призоваващо за прекратяването на разработването на системи, по-мощни от наскоро стартиралия GPT-4, за период от шест месеца, позовавайки се на потенциални рискове за обществото. Сред подписалите се са още Йошуа Бенгио, съоснователят на Apple - Стив Возняк, изпълнителният директор на Stability AI - Емад Мостак, и др. До момента това писмо е подписано от близо 32 хил. души.

Хинтън е съгласен с подписалите се, че AI може да се окаже заплаха за човечеството, но не и че проучванията в областта трябва да бъдат замразени. "Това е напълно нереалистично", казва той. "Аз съм в лагера, който смята, че това е екзистенциален риск и е достатъчно близо, че да работим много усилено още сега и да влагаме много ресурси, за да разберем какво можем да направим по въпроса".