ЕС одобри първия в света закон за регулиране на изкуствения интелект

Новите правила ще се борят с навлизането в личното пространство, ограничаването на човешките права и дискриминацията, свързани с AI

Европейската комисия се опитва да оформи доброволен пакт за изкуствен интелект, който големите технологични компании да се съгласят с необвързващи принципи за прозрачност и отчетност
Европейската комисия се опитва да оформи доброволен пакт за изкуствен интелект, който големите технологични компании да се съгласят с необвързващи принципи за прозрачност и отчетност
Европейската комисия се опитва да оформи доброволен пакт за изкуствен интелект, който големите технологични компании да се съгласят с необвързващи принципи за прозрачност и отчетност    ©  European Union 2020
Европейската комисия се опитва да оформи доброволен пакт за изкуствен интелект, който големите технологични компании да се съгласят с необвързващи принципи за прозрачност и отчетност    ©  European Union 2020
На 8 декември късно през нощта (след близо две години обсъждания и 33 часа преговори) бе постигнато съгласие за Закона на изкуствения интелелект(ИИ) в ЕС от съзаконодателите. Така Европа стана първия континент, който ще регулира ИИ със законодателство. Новите правила на ЕС ще разгледат рисковете, свързани с прилагането на изкуствения интелект, но и съответните задължения при употребата. Законът за ИИ също има за цел да насърчи инвестициите и иновациите в сектора. Предстои формално гласуване отново в Европейския парламент и приемане от държавите членки.*

*Текстът първоначално е публикуван на 14 юни и е актуализирана на 9 декември, след приключване на триалозите.
Темата накратко
  • Първото закондателство за регулация на изкуствения интелект е на крачка да бъде финализирано.
  • То ще забрани използването на лицево разпознаване в обществени пространства, полицейските инструменти на база на predicting policing и ще наложи нови мерки за прозрачност на ChatGPT на OpenAI.
  • До влизането му в сила остават поне още две години, затова се търсят варианти за временни решения за ограничаване на рисковете на бързоразвиващата се технология.

Изкуственият интелект (AI) вероятно е най-определящата технология за това десетилетие, а може би и за следващото. Системи и софтуери, които до неотдавна виждахме само в научнофантастичното кино и литература, днес вече са реалност. По тази причина в края на 2021 г. Европейската комисия предложи Закон за изкуствения интелект, който цели установяване на обвързващи правила за забранени и "високорискови" приложения. Проектопредложението може да бъде първото в света цялостно законодателство, регулиращо технологията, която може да донесе както редица ползи, така и заплахи за човечеството.

През юни Европейският парламент гласува проектопредложението, защитавайки позицията "да се забрани използването на лицево разпознаване в обществени пространства, полицейските инструменти на база на predicting policing и да наложи нови мерки за прозрачност на генеративни AI приложения като ChatGPT на OpenAI", коментира пред "Капитал" ръководителят на Делегацията на българските социалисти в Европейския парламент (ЕП) и докладчик по досието Петър Витанов.

Съгласно предложенията инструментите за изкуствен интелект ще бъдат класифицирани според тяхното възприемано ниво на риск, от ниско до неприемливо. Правителствата и компаниите, използващи тези инструменти, ще имат различни задължения в зависимост от нивото на риск, допълва той.

На 8-ми декември бе постигнат политически компромис от Европейския парламент и Съвета по регламента. До реалното влизане в сила на закона обаче има още поне две години, а технологиите силно изпреварват тази скорост. Различната амбиция на държавите членки също може да затрудни или забави допълнително процеса.

Какво представлява ИИ

Първата вълна от ранни AI техники е известна като "символичен AI" или експертни системи. Тук човешките експерти създават точни процедури, базирани на правила - известни като "алгоритми" - които компютърът може да следва стъпка по стъпка, за да реши как да реагира интелигентно на дадена ситуация.

"Символичният AI" работи успешно в точно определена среда, която не се променя много с времето, където правилата са строги и променливите са недвусмислени и количествено измерими. Въпреки че тези методи може да изглеждат остарели, те остават много подходящи и все още се прилагат успешно в няколко области, спечелвайки симпатичното прозвище "добрият старомоден AI".

Втората вълна от AI включва по-нови подходи, "управлявани от данни", които се развиха бързо през последните две десетилетия и са до голяма степен отговорни за сегашното възраждане на AI. Те автоматизират процеса на обучение на алгоритми, заобикаляйки човешките експерти от първата вълна на изкуствения интелект. Изкуствените невронни мрежи (ANM) са вдъхновени от функционалността на мозъка и могат да решават далеч по-сложни проблеми. Входовете се преобразуват в сигнали, които преминават през мрежа от изкуствени неврони, за да генерират изходи, които се интерпретират като отговори на входовете.

Те се прилагат в т.нар. Facial Emotion Recognition (FER) - технологията, използваща AI, която анализира израженията на лицето (както статични, така и от видеоклипове), за да разкрие информация за емоционалното състояние на човека. Инсталирана на летища при митнически проверки тя може да таргетира индивиди, които са заплаха, но и също да навлезе в личното пространство на други или да обърка някое болестно състояние с реалния риск.

Но също predicting policing (или "предсказуемо управление"), което включва използване на алгоритми за анализиране на огромни количества информация. Или по примера на филма Minority Report от 2002 г. с Том Круз на база на квартала, в който живееш, социален статус, религия и дори цвета на кожата полицията в големите градове в САЩ вече се опитва да предвиди и помогне за предотвратяване на потенциални бъдещи престъпления. Доколко прецизно е това или дали не е дискриминационно е друг въпрос.

Още - системата за "социално кредитиране" (The Social Credit System), която представлява национален кредитен рейтинг и черен списък, разработени от правителството на Китайската народна република. На база на редица социални критерии те класифицират рисковите субекти в обществото.

Третата вълна на AI се отнася до спекулативни възможни бъдещи вълни на изкуствения интелект. Тук става въпрос за алгоритми, които могат да проявяват интелигентност в широк диапазон от контексти и проблемни пространства. Такъв изкуствен общ интелект (AGI) не е възможен с настоящата технология и би изисквал напредък в промяна на парадигмата. Става въпрос за някои потенциални подходи, включително усъвършенствани еволюционни методи, квантово изчисление и мозъчна емулация. Други форми на спекулативен бъдещ AI може да изглеждат по-скромни в своите амбиции, но тяхното потенциално въздействие - и бариери пред прилагането - не трябва да се подценяват.

За ползите и предизвикателствата

В общи линии целта на подготвяното европейско законодателство е избягване на недостатъчна употреба, при което пропускаме потенциални възможности, и ограничение на прекомерна употреба, при която AI се прилага за задачи, за които не е подходящ или води до проблемни резултати.

Освен очевидните ползи, които са свързани с по-висока производителност на труда (до 37% по данни на тинк-танка на ЕП), увеличена трайност на продуктите, нови възможности в публичните услуги като обществения транспорт, образованието, управлението на енергия и отпадъци (и за постигане на целите на Европейския зелен пакт), за здравето и сигурността на хората.

Това обяснява нуждата от регулации за AI. "Изкуственият интелект експоненциално се разпространява и се развива, навлизайки вече в почти всяка сфера в обществения живот. И е съвсем нормално, когато имаме развитие на тези системи, да имаме съответните регулации не заради друго, а защото част от тях според мен представляват опасност, включително от гледна точка на етиката, на човешките права, на основните човешки права, сигурността и др.", коментира евродепутатът Петър Витанов.

Резултатите от действието на изкуствения интелект зависят от неговия дизайн и от данните, които използва. И двете могат да имат вградени слабости, които да правят изкуствения интелект необективен. Ако не е разработен правилно, изкуственият интелект може да взема решения, повлияни от етническа принадлежност, пол или възраст при назначаване или освобождаване от работа, предлагане на заеми или при съдебни дела.

Процесът на машинно обучение прави някои алгоритми уязвими към отклонения, а тяхната сложност прави логиката им за вземане на решения трудна за разбиране и обяснение. В тази връзка важно предизвикателство е определянето чия е отговорността за щети, причинени от устройства с изкуствен интелект. Ако една автономна кола претърпи произшествие, кой ще покрие щетите - собственикът, производителят или разработчикът на приложението?

Ако производителят е напълно освободен от отговорност, той може да няма стимул да предостави добър продукт или услуга и това би могло да намали доверието в технологията. Обратно, твърде стриктните регулации може да задушат тласъка към иновации.

Има и други важни рискове, свързани с гарантирането, че разходите и ползите от развитието на изкуствения интелект се разпределят равномерно, като се избягва концентрацията на ресурси в неконкурентни пазари и се дава приоритет на приложения, които облекчават, а не изострят съществуващите структурни неравенства.

Други ключови предизвикателства включват общественото приемане на технологията, нейното привеждане в съответствие със социалните ценности и опасения относно някои военни приложения. Приложения, които са в пряк контакт или са интегрирани в човешкото тяло, могат да представляват заплаха, ако са лошо направени или попаднат под чужд контрол. Липсата на регулации на изкуствения интелект в оръжията може да доведе до изпускането на контрола от хората върху тях.

Някои утопични и дистопични сценарии предполагат, че изкуствения интелект може да доведе до големи загуби на работни места или да направи концепцията за работа остаряла, че AI може да се изплъзне от човешкия контрол и да поеме контрола върху собственото си развитие, че може да предизвика човешката автономия или да развие изкуствени емоции или съзнание- интересни, но спекулативни и философски въпроси.

Какво предстои

След като условията бяха финализирани и има политическо съгласие от съзаконодателите, ще има гратисен период от около две години преди влизане в сила, за да се позволи на засегнатите страни да се съобразят с разпоредбите.

Междувременно Европейската комисия се опитва да оформи доброволен пакт за изкуствен интелект - такъв, който ще накара компании като Microsoft, Google и OpenAI да се съгласят с необвързващи принципи за прозрачност и отчетност - временно решение за бързо развиващата се технология, докато законодателството не влезе окончателно в сила. "Не можем да си позволим да чакаме, докато регулирането на изкуствения интелект действително стане приложимо. Необходимо е да работим заедно с всички разработчици на AI на доброволна основа", коментира европейският комисар по въпросите на вътрешния пазар Тиери Бретон в изявление. Вследствие на това и представителите на най-големите платформи, изготвящи съдържание с изкуствен интелект, сред които Google, Microsoft и Meta, се съгласиха да поставят етикет, че съдържанието не е създадено от хора, а от роботи.

На ниво междудържавни споразумения Европейският съюз и Съединените щати планират да засилят сътрудничеството в областта на изкуствения интелект, за да установят минимални стандарти, преди законодателството на ЕС да влезе в сила.

Как го правят по света?

АВСТРАЛИЯ

Правителството се консултира с основния научен консултативен орган на Австралия и обмисля следващите стъпки, каза през април говорител на министъра на индустрията и науката.

ВЕЛИКОБРИТАНИЯ

Британският регулатор за конкуренцията заяви на 4 май, че ще започне да проучва въздействието на AI върху потребителите, бизнеса и икономиката и дали са необходими нови контроли.

През март Великобритания заяви, че планира да раздели отговорността за управлението на AI между своите регулатори за правата на човека, здравето и безопасността и конкуренцията, вместо да създава нов орган.

КИТАЙ

Китайският регулатор на киберпространството през април обяви проект на мерки за управление на генеративни AI услуги, заявявайки, че иска фирмите да предоставят оценки на сигурността на властите, преди да пуснат предложения за обществеността. Пекин ще подкрепи водещи предприятия в изграждането на AI модели, които могат да предизвикат ChatGPT, каза през февруари неговото бюро за икономика и информационни технологии.

ФРАНЦИЯ

Френският регулатор CNIL заяви през април, че разследва няколко жалби за ChatGPT, след като чатботът беше временно забранен в Италия поради предполагаемо нарушение на правилата за поверителност. Националното събрание на Франция одобри през март използването на AI видеонаблюдение по време на Олимпийските игри в Париж през 2024 г., пренебрегвайки предупрежденията на групи за граждански права.

G7

Страните от Г-7 ще приемат "базирана на риска" регулация за изкуствения интелект, обявиха министрите по дигитализация след среща на 29-30 април в Япония.

САЩ

Директорът на Федералната търговска комисия каза на 3 май, че агенцията се е ангажирала да използва съществуващите закони, за да контролира някои от опасностите на ИИ, като например засилване на властта на доминиращите фирми и "турбо" измами.

Сенаторът Майкъл Бенет представи законопроект през април за създаване на работна група, която да преразгледа политиките за изкуствения интелект и да идентифицира как най-добре да се намалят заплахите за неприкосновеността на личния живот, гражданските свободи и надлежния процес.