Драмата около Сам Олтман показва по-дълбоко разделение в технологичния свят

"Песимистите" и "оптимистите" се борят за надмощие при изкуствения интелект

Бюлетин: Вечерни новини Вечерни новини

Всяка делнична вечер получавате трите най-четени статии от деня, заедно с още три, препоръчани от редакторите на "Капитал"

Няма съмнение в отдадеността на Сам Олтман на OpenAI, компанията, която е начело на революцията при изкуствения интелект (AI). Като съосновател и шеф той, изглежда, работеше също толкова неуморно за нейния успех, колкото и в предишен стартъп, където неговата целенасоченост доведе до появата на скорбут - болест, по-често свързвана с моряците от отминала епоха, които са били прекалено дълго в морето без достъп до прясна храна. Поради това внезапното му уволнение на 17 ноември беше шокиращо. Причините, поради които управителният съвет на фирмата е загубил доверието си в г-н Олтман, са неясни. Слуховете сочат към обезпокоения относно страничните му проекти и опасения, че той се стреми твърде бързо да разшири търговските предложения на OpenAI, без да обмисля последиците за безопасността във фирма, която също така е обещала да разработва технологията за "максимална полза за човечеството".

Инвеститорите и някои от служителите на компанията настояват за връщането на г-н Олтман. Но съветът се придържа към решението си: късно на 19 ноември той назначи Емет Шиър, бивш ръководител на Twitch - услуга за стрийминг на видео, за временен главен изпълнителен директор.

Той обаче се задържа на позицията едва няколко дни - във вторник OpenAI обяви в X, че е постигнала споразумение с Олтман, който ще се завърне на поста изпълнителен директор. Освен това компанията се е съгласила частично да реорганизира управителния съвет, който го отстрани миналата седмица.

Събитията в OpenAI са най-драматичната проява досега на по-широкото разделение в Силициевата долина. От една страна са "песимистите", които вярват, че изкуственият интелект представлява екзистенциален риск за човечество, ако остане без контрол, поради което настояват за по-строги правила. Срещу тях са "оптимистите", които омаловажат страховете от AI апокалипсис и подчертават потенциала му да ускори напредъка. Страната, която се окаже по-влиятелна, може или да насърчи, или да попречи на по-строгите регулации, което на свой ред ще определи кой ще спечели най-много от изкуствения интелект в бъдеще.

Корпоративната структура на OpenAI се намира на границата. Основана като организация с нестопанска цел през 2015 г., три години по-късно компанията създава дъщерно дружество със стопанска цел, за да финансира нуждата си от скъп изчислителен и умствен капацитет, за да развива технологията. Удовлетворяването на противоположните цели на "песимистите" и "оптимистите" винаги е щяло да бъде трудно.

Песимисти срещу оптимисти

Разделението отчасти отразява философски различия. Мнозина в лагера на "песимистите" са повлияни от "ефективния алтруизъм" - движение, което е обезпокоено от възможността изкуствения интелект да унищожи човечеството. Сред разтревожените е Дарио Амодей, който напусна OpenAI, за да основе Anthropic, друг създател на модели. Други технологични гиганти, включително Microsoft и Amazon, също са сред загрижените относно безопасността на изкуствения интелект.

"Оптимистите" споделят мироглед, наречен "ефективно ускорение", който твърди, че не само че развитието на AI трябва да продължи необезпокоявано, но и да се ускори. Водещ поддръжник е Марк Андрийсън, съосновател на компанията за рисков капитал Andreessen Horowitz. И други AI експерти, изглежда, симпатизират на каузата. Ян Лекун и Андрю Нг от Meta, както и множество други стартъпи, включително Hugging Face и Mistral AI, настояват за по-малко рестриктивни регулации.

Г-н Олтман, изглежда, симпатизираше и на двете групи, като публично призоваваше за "предпазни огради", които да направят AI безопасен, като същевременно насърчаваше OpenAI да разработва по-мощни модели и да пуска нови инструменти, като например магазин за приложения, в който потребителите да създават свои собствени чатботове. Твърди се, че най-големият ѝ инвеститор - Microsoft, който е вложил над 10 млрд. долара в OpenAI в замяна на 49% дял, без да получи място в съвета на компанията майка, е недоволен, тъй като е разбрал за уволнението само минути преди г-н Олтман.

След връщането на Олтман главният изпълнителен директор Сатя Надела написа в X: "Окуражени сме от промените в борда на OpenAI. Вярваме, че това е първата съществена стъпка по пътя към по-стабилно, добре информирано и ефективно управление".

И все пак изглежда, че става дума за нещо повече от абстрактна философия. Случва се така, че двете групи са разделени и по по-комерсиални линии. "Песимистите" са ранните участници в AI надпреварата, имат по-дълбоки джобове и подкрепят затворените модели. "Оптимистите", от друга страна, са по-скоро фирми, които наваксват, са по-малки и предпочитат софтуер с отворен код.

Лидерството не е гаранция за успех в технологиите

Да започнем с ранните победители. ChatGPT на OpenAI привлече 100 млн. потребители само за два месеца след стартирането си, следвана плътно от основаната от дезертьори от OpenAI и сега оценявана на 25 млрд. долара Anthropic. Изследователи от Google написаха оригиналния труд за големите езикови модели - софтуер, обучен върху огромно количество данни и който е в основата на чатботове, включително ChatGPT. Компанията разработва все по-големи и по-интелигентни модели, както и чатбот, наречен Bard.

В същото време лидерството на Microsoft до голяма степен се дължи на големия му залог на OpenAI. Amazon планира да инвестира до 4 млрд. долара в Anthropic. Но в областта на технологиите това, че си начело, невинаги гарантира успех. На пазар, в който както технологиите, така и търсенето се развиват бързо, новите участници имат много възможности да попречат на утвърдените компании.

Това може да даде допълнителен стимул на стремежа на "песимистите" към по-строги регулации. По време на свидетелството си пред американския Конгрес през май г-н Олтман изрази опасения, че индустрията може да "причини значителна вреда на света", и призова политиците да въведат конкретни правила за AI. Същия месец група от 350 AI изследователи и технологични ръководители, включително от OpenAI, Anthropic и Google, подписаха едноредово изявление, което предупреждава за предизвикания от AI "риск от заличаване", равностоен на ядрена война и пандемии. Въпреки ужасяващите перспективи нито една от компаниите, подписали изявлението, не спря собствената си работа по създаването на по-способни Ai модели.

Политиците приемат рисковете от AI сериозно

Политиците се надпреварват да покажат, че приемат рисковете сериозно. През юли администрацията на президента Джо Байдън подтикна седем водещи създатели на модели, включително Microsoft, OpenAI, Meta и Google, да поемат "доброволни ангажименти", че техните продукти ще бъдат проверявани от експерти, преди да бъдат предоставени на обществеността. На 1 ноември британското правителство накара подобна група да подпише друго необвързващо споразумение, което позволява на регулаторите да проверяват надеждността и наличието на вредни способности, като например застрашаването на националната сигурност, на техните AI продукти. Няколко дни преди това Байдън издаде много по-строга изпълнителна заповед. Тя задължава всяка AI компания, която създава модели над определен размер - определен от изчислителната сила, необходима на софтуера - да уведоми правителството и да сподели резултатите от тестовете си за безопасност.

Друга разграничителна линия между двете групи е бъдещето на изкуствения интелект с отворен код. Големите езикови модели са или собствени, като тези на OpenAI, Anthropic и Google, или с отворен код. Пускането през февруари на LLaMA, модел, създаден от Meta, даде тласък на активността при AI с отворен код. Поддръжниците твърдят, че моделите с отворен код са по-сигурни, тъй като са открити за надзор. Противниците се притесняват, че предоставянето на тези мощни AI модели на обществеността ще позволи на злонамерени субекти да ги използват за зловредни цели.

Но спорът за отворения код може да отразява и търговски мотиви. Рисковите инвеститори например са големи почитатели може би защото виждат начин стартъпите, които те подкрепят, да наваксат изоставането си или да получат свободен достъп до модели. Установените компании може би се боят от конкурентната заплаха. В меморандум, написан от служители на Google, който изтече през май, се признава, че моделите с отворен код постигат резултати при някои задачи, сходни с тези на затворените им братовчеди, и струват много по-малко за създаване. В меморандума се заключава, че нито Google, нито OpenAI имат защитен "ров" срещу конкурентите с отворен код.

Досега регулаторите, изглежда, са по-възприемчиви към аргументите на "песимистите". Изпълнителната заповед на Байдън би могла да ограничи изкуствения интелект с отворен код. Широкото определение на заповедта за модели с "двойно предназначение", които могат да се използват както за военни, така и за граждански цели, налага сложни изисквания за отчитане на създателите на такива модели, които с времето може да обхванат и моделите с отворен код. Степента, в която тези правила могат да бъдат приложени днес, е неясна. Но с времето те могат да придобият по-голяма сила,, например ако бъдат приети нови закони.

Не всеки технологичен гигант се намира ясно в една от двете страни на разделението. Решението на Meta да отвори своите AI модели я превърна в неочакван шампион на стартъпите, като им предостави достъп до мощен модел, върху който да изграждат иновативни продукти. Meta залага на това, че рязкото нарастване на иновациите, предизвикано от инструментите с отворен код, в крайна сметка ще ѝ помогне да създаде по-нови форми на съдържание, които да поддържат ангажираността на потребителите ѝ, и да зарадва нейните рекламодатели. Apple е друго изключение. Най-голямата технологична компания в света е особено мълчалива по отношение на изкуствения интелект. При представянето на новия iPhone през септември компания представи множество функции, задвижвани от AI, без да спомене термина. Когато бъдат провокирани, нейните ръководители предпочитат да възхваляват "машинното обучение" - друг термин за AI.

Това изглежда разумно. Кризата в OpenAI показва колко вредни могат да бъдат свързаните с AI културни войни. Но именно тези войни ще определят начина, по който технологията ще се развива, как ще бъде регулирана - и кой ще си тръгне с плячката.

2023, The Economist Newspaper Limited. All rights reserved