🗞 Новият брой на Капитал е онлайн >>

Изкуственият интелект може да предложи много на човечеството. Но трябва да бъде контролиран

Това са системи със способности, надхвърлящи човешките. Ако технологичните компании откажат да видят рисковете, правителствата трябва да се намесят

Според принципите за изкуствения интелект на ОИСР, под които са се подписали САЩ, Великобритания и много други правителства, "системите на изкуствения интелект трябва да бъдат сигурни и безопасни по време на целия им жизнен цикъл"
Според принципите за изкуствения интелект на ОИСР, под които са се подписали САЩ, Великобритания и много други правителства, "системите на изкуствения интелект трябва да бъдат сигурни и безопасни по време на целия им жизнен цикъл"
Според принципите за изкуствения интелект на ОИСР, под които са се подписали САЩ, Великобритания и много други правителства, "системите на изкуствения интелект трябва да бъдат сигурни и безопасни по време на целия им жизнен цикъл"    ©  Reuters
Според принципите за изкуствения интелект на ОИСР, под които са се подписали САЩ, Великобритания и много други правителства, "системите на изкуствения интелект трябва да бъдат сигурни и безопасни по време на целия им жизнен цикъл"    ©  Reuters
Бюлетин: Вечерни новини Вечерни новини

Всяка делнична вечер получавате трите най-четени статии от деня, заедно с още три, препоръчани от редакторите на "Капитал"

Стюарт Ръсел, професор по компютърни науки в University of California, Berkeley, в анализ за британския Observer

В случай че сте били някъде другаде в Слънчевата система, ето едно резюме на последните новини за изкуствения интелект. Извинявам се, ако звучи като откриващия параграф на тривиален научнопопулярен разказ.

На 14 март 2023 г. OpenAI - компания, базирана в Сан Франциско, в която Microsoft има голяма инвестиция, пусна система, свързана с изкуствения интелект, под името GPT-4. На 22 март доклад на група от изтъкнати изследователи в Microsoft посочи, че GPT-4 проявява "наченки на изкуствен общ интелект" - AGI, което означава система, съответстваща на или надхвърляща човешките способности в редица задачи, към които може да се приложи човешкият мозък. На 29 март Future of Life Institute, ръководен от професора по физика от MIT Макс Тегмарк, публикува отворено писмо, призоваващо за временно спиране на "големите експерименти с изкуствен интелект". То бе подписано от фигури като Илън Мъск от Tesla и Стив Возниак от Apple, както и от стотици известни изследователи на изкуствения интелект.

Аз също подписах писмото с надеждата, че това ще доведе до сериозен и фокусиран разговор сред политиците, технологичните компании и учените за това какви гаранции са необходими, преди да продължим напред. Времето, в което казвахме, че става въпрос само за изследвания, отдавна отмина.

Неслучайно хиляди корпорации, големи и малки, търсят начини да осребрят този неограничен източник на интелект.

GPT-4 е последният пример за голям езиков модел - LLM. Способностите му са забележителни. Според сайта на OpenAI той изкарва резултат като няколкото процента водещи кандидати в университетските изпити. Може да опише Питагоровата теорема под формата на Шекспиров сонет и да критикува речта на министър от позицията на депутат от дадена политическа партия. Всеки ден биват откривани нови изумителни способности. Неслучайно хиляди корпорации, големи и малки, търсят начини да осребрят този неограничен източник на интелект. LLM може да изпълнява много от задачите, съдържащи се в професиите на стотици милиони хора.

За съжаление обаче LLM са известни с това, че "халюцинират" - генерират напълно грешни отговори, често подкрепени с измислени цитати, тъй като тяхното обучение няма връзка с външния свят. Те са перфектното средство за дезинформация и затова OpenAI съветва да се избягва "употребата при много важни дейности", но изглежда, че никой не слуша. Тестовете на самата компания показват, че GPT-4 може преднамерено да излъже човек ("Не, не съм робот. Имам ограничения на зрението, което ми пречи да виждам картинките"), за да получи помощ в разрешаването на тестовете с картинки, предназначени да блокират потребители, които не са хора.

Основният проблем е, че нито OpenAI, нито някой друг знае как работи GPT-4. Попитах Себастиан Бъбек, водещия автор на цитирания по-горе доклад, дали GPT-4 е развил свои собствени вътрешни цели и дали ги прилага. Какъв бе отговорът? "Нямаме идея." Разумните хора може да решат, че е неразумно да се въвежда в глобален мащаб една система, която оперира въз основа на неясни вътрешни принципи, която показва "наченки на изкуствен общ интелект" и която може да следва свои собствени цели. В момента има технически причини да предположим, че GPT-4 е ограничен в способността си да измисли и изпълни комплексен план, но предвид скоростта на напредък е трудно да се каже дали бъдещи версии няма да могат да правят това. Което води до едно от основните опасения, изразени в отвореното писмо - как да упражняваме контрол над обекти, които са по-силни от нас, завинаги?

Проблемът е, че нито OpenAI, нито някой друг знае как работи GPT-4.

Основната идея на предложения от отвореното писмо мораториум е да не бъдат въвеждани в експлоатация такива системи, докато производителят не докаже убедително, че те не представляват риск. Това е в унисон с принципите за изкуствения интелект на ОИСР, под които са се подписали САЩ, Великобритания и много други правителства: "Системите на изкуствения интелект трябва да бъдат сигурни и безопасни по време на целия им жизнен цикъл, така че в условия на нормална употреба, злоупотреба или други условия те да функционират според очакванията и да не представляват неразумен риск за безопасността." Разработчикът трябва да докаже, че неговите системи спазват тези критерии.

Не си представям, че утре от ръководството на Microsoft ще ми се обадят и ще ми кажат: "Добре, предаваме се, ще спрем." Всъщност по време на скорошен разговор Себастиан Бъбек каза, че няма възможност всички големи технологични компании да спрат, ако правителствата не се намесят. Затова е наложително правителствата да проведат сериозни дискусии с експерти, тех компании и други. Не е в интерес на никоя страна някоя държава да разработи изкуствен интелект, който не може да контролира. Настояването за разумни гаранции не е против индустрията. Аз съм изследовател на изкуствения интелект. Не искам моето поле на изследвания да бъде унищожено. Човечеството може много да спечели от изкуствения интелект, но също така може и да изгуби всичко.

2 коментара
  • Най-харесваните
  • Най-новите
  • Най-старите
  • 1
    gqa16522473941119129 avatar :-|
    Perko Perkov
    • + 2

    Изкуствения интелект е бял кахър в сравнение с колективната глупост. Тя няма как да бъде контролирана, за съжаление.

    Нередност?
  • 2
    svetlozar_savov avatar :-P
    SS

    Че ще може - може !
    Въпросът е ще има ли останало човечество !?

    Нередност?
Нов коментар