Светът иска да регулира изкуствения интелект, но не знае как

Съществува разногласие по отношение на това какво, как и от кого трябва да се контролира

Европейският закон за изкуствения интелект има за цел отчасти да затвърди ролята на блока като създател на глобалните цифрови стандарти.
Европейският закон за изкуствения интелект има за цел отчасти да затвърди ролята на блока като създател на глобалните цифрови стандарти.
Европейският закон за изкуствения интелект има за цел отчасти да затвърди ролята на блока като създател на глобалните цифрови стандарти.    ©  Reuters
Европейският закон за изкуствения интелект има за цел отчасти да затвърди ролята на блока като създател на глобалните цифрови стандарти.    ©  Reuters
Бюлетин: Вечерни новини Вечерни новини

Всяка делнична вечер получавате трите най-четени статии от деня, заедно с още три, препоръчани от редакторите на "Капитал"

Мястото на събитието ще бъде живописно: сграда от XIX век северно от Лондон, където по време на Втората световна война са се помещавали Алан Тюринг, неговият екип за разбиване на кодове и първият програмируем цифров компютър. Участниците ще бъдат елитна група от 100 световни лидери и технологични ръководители. И въпросът, на който ще се опитат да отговорят, е епохален: как да се гарантира, че изкуственият интелект нито ще се превърне в инструмент за безконтролни злоупотреби, нито ще се обърне срещу човечеството.

Срещата на високо равнище за изкуствения интелект, която британското правителство организира на 1 и 2 ноември в Блетчли парк, изглежда, е предназначена за учебниците по история. И може би в действителност един ден тя ще бъде разглеждана като първия случай, в който световни представители на властта седнаха да обсъдят сериозно какво да правят с технология, която може да промени света. Както наблюдава Джонатан Блек, един от организаторите, за разлика от други големи политически дебати, като например за изменението на климата, "има силна политическа воля да се направи нещо, но не е ясно какво".

Усилията за овладяване на AI са многобройни. На 25 октомври преговорите в Брюксел навлязоха в ключов етап, тъй като длъжностните лица се опитват да приключат амбициозния закон на EС за изкуствения интелект до края на годината. В дните преди британската среща на върха или малко след нея се очаква Белият дом да издаде изпълнителна заповед за AI. Тази есен клубът на богатите демокрации Г-7 ще започне изготвянето на кодекс за поведение на AI фирмите. Китай на свой ред представи на 18 октомври "Глобална инициатива за управление на AI".

Инерцията се дължи на необичайна политическа икономика. Стимули за действие и за съвместни действия са силни. Като начало AI наистина е глобална технология. Големите езикови модели (LLM), които задвижват страшно човекоподобни услуги като ChatGPT, се разпространяват лесно. Някои могат да бъдат изпълнявани на лаптоп. Няма смисъл да затягаме AI регулациите в едни страни, ако те остават разхлабени в други. Гласоподавателите може да са съгласни. Повече от половината американци "са по-загрижени, отколкото развълнувани" от употребата на AI, показва допитване на Pew Research Centre.

Пекинският ефект

Регулаторното съперничество придава още по-голяма неотложност. Европейският закон за изкуствения интелект има за цел отчасти да затвърди ролята на блока като създател на глобалните цифрови стандарти. Белият дом ще се радва да предотврати подобен "брюкселски ефект". Нито ЕС, нито Америка искат да бъдат изпреварени от Китай, който вече е приел няколко AI закона. Те се разгневиха на британското правителство, че е поканило Китай на срещата - въпреки че без него нито един регулаторен режим няма да е наистина глобален. (Китай може действително да се появи, дори ако техният интерес не е толкова защита на човечеството, колкото на комунистическата партия.)

Друг стимул за AI дипломацията е още по-изненадващ - самите създатели на модели. В миналото технологичната индустрия предимно се противопоставяше на регулациите. Сега гиганти като Alphabet и Microsoft, както и AI любимци като Anthropic и OpenAI, който създаде ChatGPT, лобират за тях. Компаниите се боят, че необузданата конкуренция ще ги накара да действат безразсъдно, пускайки модели, с които лесно може да се злоупотреби или които могат да започнат да развиват собствен ум. Това наистина би ги поставило в трудна ситуация.

С други думи, волята за действие е налице. Това, което липсва, е "нещо, наподобяващо консенсус по отношение на това какви са проблемите, които трябва да регулираме, камо ли пък как трябва да ги регулираме", казва Хенри Фарел от Johns Hopkins University. Открояват се три дебата. За какво трябва да се тревожи светът? Към какво трябва да са насочени правилата? И как трябва да се прилагат?

Да започнем с целта на регулациите. Те са трудни за определяне, тъй като изкуственият интелект се развива бързо. Почти не минава ден, в който някой стартъп да не предложи нещо ново. Дори разработчиците на LLM не могат да кажат със сигурност какви способности ще проявят те. Поради това е изключително важно да има тестове, които могат да преценят колко рискови могат да бъдат те - нещо, което все още е повече изкуство, отколкото наука. Без такива оценки ще бъде трудно да се провери дали даден модел спазва правилата.

Технологичните компании може и да подкрепят регулациите, но искат те да са ограничени и насочени само към крайните рискове. По време на изслушване в Сената във Вашингтон през юли Дарио Амодей, главен изпълнителен директор на Anthropic, предупреди, че след няколко години AI моделите ще могат да предоставят цялата необходима информация за разработването на биологични оръжия, позволявайки на "много повече играчи да извършват мащабни биологични атаки". Подобни мрачни прогнози се правят и за кибернетичните оръжия. По-рано този месец Гари Генслер, председател на американската Комисия по ценните книжа и фондовите борси, прогнозира, че без бърза намеса предизвикана от изкуствения интелект финансова криза е "почни неизбежна".

Други твърдят, че тези спекулативни рискове отклоняват от други заплахи, като например подронване на демократичния процес. По време на предишно изслушване в Сената Гари Маркъс, известен AI скептик, започна свидетелството си с откъс от новина, написана от GPT-4, водещия модел на OpenAI. В него убедително се твърди, че части от Конгреса са "тайно манипулирани от извънземни субекти". "Всички ние трябва да сме дълбоко обезпокоени, твърди г-н Маркъс, относно системи, които лесно могат да си измислят."

Дебатът за това какво точно трябва да се регулира няма да е по-лесен за решение. Технологичните фирми предлагат контролът да се ограничи най-вече до най-мощните "пределни" модели. Microsoft наред с други призовава за лицензионен режим, изискващ фирмите да регистрират модели, надвишаващи определени прагове на производителност. Други предложения включват контрол върху чиповете, използвани за обучение на LLM, и задължаване на фирмите за облачни изчисления да информират органите, когато клиентите им обучават пределни модели.

Интересите на компаниите

Повечето фирми също така са съгласни, че трябва да се регулират приложенията на моделите, а не самите модели. Офис софтуер? Лека намеса. AI в здравеопазването? Строги правила. Лицево разпознаване на обществени места? Вероятно е недопустимо. Предимството на подобни регулации, основани на употребата, е, че в повечето случаи съществуващите закони ще бъдат достатъчни. AI разработчиците предупреждават, че по-широки и по-натрапчиви правила ще забавят иновациите.

До миналата година Америка, Великобритания и ЕС, изглежда, бяха съгласни с този основан на риска подход. Зашеметяващият подем на LLM след стартирането на ChatGPT преди година ги накара да се замислят. Сега ЕС се чуди дали все пак самите модели не трябва да бъдат поставени под надзор. Европейският парламент иска създателите на модели да тестват LLM за потенциалното им въздействие върху всичко - от здравеопазването до човешките права. Той настоява да получи информация за данните, върху които се обучават моделите. Канада има по-твърд закон за изкуствения интелект и данните в дневния ред на парламента си. Бразилия обсъжда нещо подобно. В Америка се очаква предстоящата изпълнителна заповед на президента Джо Байдън също да включва някои по-строги правила. Дори Великобритания може да преразгледа свободния си подход.

Тези по-строги регулации ще са промяна в сравнение с необвързващите кодекси за поведение, които досега бяха предпочитаният метод. Миналото лято Белият дом договори набор от "доброволни ангажименти", които вече са подписани от 15 създатели на модели. Фирмите се съгласиха моделите им да бъдат тествани вътрешно и външно преди тяхното пускане и да споделят информация за това как управляват рисковете, свързани с изкуствения интелект.

След това възниква въпросът кой трябва да извършва регулациите. Америка и Великобритания смятат, че съществуващите правителствени агенции могат да свършат по-голямата част от работата. ЕС иска да създаде нов регулаторен орган. В международен план няколко технологични ръководители сега призовават за създаването на нещо, наподобяващо Междуправителствената експертна група по климатичните промени (IPCC), на която ООН възлага задачата да следи най-новите изследвания на изменението на климата и да разработва начини за оценка на въздействието му.

Предвид всички тези отворени въпроси не е изненадващо, че организаторите на срещата в Лондон не звучат особено оптимистично. Тя трябва да се възприема основно като "разговор", казва организаторът г-н Блек. Все пак не толкова тайната надежда е, че тя ще даде няколко осезаеми резултата, особено през втория ден, когато в залата ще останат само около 20 от най-важните корпоративни и световни лидери. Те все пак биха могли да подкрепят доброволните ангажименти на Белия дом и да препоръчат създаването на IPCC за изкуствения интелект или дори да глобализират съществуващата британска Frontier AI Taskforce.

Подобен резултат би бил успех за британското правителство. Той също така би ускорил и по-официалните усилия за глобално управление на изкуствения интелект, като например кодекса за поведение на Г-7. В този смисъл това би било полезна първа стъпка. Тя няма да бъде последната.

2023, The Economist Newspaper Limited. All rights reserved

2 коментара
  • Най-харесваните
  • Най-новите
  • Най-старите
Нов коментар