🗞 Новият брой на Капитал е онлайн >>

Киберсигурността е ключова част от общата бизнес стратегия на компаниите

Снежана Илиева - директор "Изкуствен интелект и машинно обучение" за Южна и Източна Европа, PwC

Снежана Илиева - директор "Изкуствен интелект и машинно обучение" за Южна и Източна Европа, PwC
Снежана Илиева - директор "Изкуствен интелект и машинно обучение" за Южна и Източна Европа, PwC
Снежана Илиева - директор "Изкуствен интелект и машинно обучение" за Южна и Източна Европа, PwC
Снежана Илиева - директор "Изкуствен интелект и машинно обучение" за Южна и Източна Европа, PwC
Бюлетин: Вечерни новини Вечерни новини

Всяка делнична вечер получавате трите най-четени статии от деня, заедно с още три, препоръчани от редакторите на "Капитал"

Визитка

Снежана Илиева е директор "Изкуствен интелект и машинно обучение" за Южна и Източна Европа, PwC. Тя беше лектор на Сyber Security Forum, организиран от "Капитал", който се проведе на 16.11.2023

Какви са основните изводи от тазгодишното проучване на PwC в сферата на киберсигурността?

Последното издание на проучването Global Digital Trust Insights 2024 на PwC, извършено сред 3876 висши ръководители в сферата на бизнеса и технологиите от водещи глобални корпорации, разкрива ключови предизвикателства и възможности в сектора на киберсигурността. Несъответствието между нарастващите бюджети за сигурност и реалния напредък подчертава нуждата от по-ефективен подход към управлението на киберсигурността.

Една от основните тенденции, засегната в проучването, е нарастването на броя и разходите, свързани с пробиви в сигурността. Въпреки че атаките в облачното пространство се очертават като основен риск, значителен процент от организациите (приблизително една трета) все още не разполагат с ефективен план за управление на риска, за да се справят с предизвикателствата, свързани с използването на облачни услуги. Допълнително - само половината от анкетираните компании изразяват удовлетворение от своите технологични способности в контекста на киберсигурността. Също така повече от 30% от компаниите не следват стандартните практики за киберзащита, което повишава техния риск от кибератаки и съответните финансови и оперативни последици.

Въпреки това приблизително 5% от компаниите смятат киберзащитата за основен елемент на иновациите и вече реализират ползи, които останалите организации пропускат. Те са обект на по-малко пробиви, а щетите от кибератаките не са толкова големи (в материално изражение). Управлението на риска за тях е по-лесно, очакват по-голяма производителност и по-бърз растеж, изпреварват конкуренцията, като едновременно с това използват новите технологии с по-голяма увереност, тъй като знаят, че са добре защитени.

Проучването също подчертава четири основни промени в областта на киберсигурността, които се очаква да имат значително въздействие през следващите години:

  • Модернизация на технологичната инфраструктура: Почти половината от бизнес лидерите насочват инвестициите си към модернизацията на технологичната инфраструктура, включително киберинфраструктурата.
  • Възход на хибридните киберзаплахи: Организациите изразяват нарастваща загриженост относно облачните атаки и атаките върху свързани устройства.
  • Фокус върху Генеративния изкуствен интелект (GenAI): Приблизително 70 процента от анкетираните активно планират да използват GenAI в своите стратегии за киберсигурност, което подчертава критичната необходимост от проактивни и ефективни защитни мерки.
  • Нови регулации: Около една трета от анкетираните вярват, че новите регулации за AI, както и хармонизацията на законите за кибер- и защита на данни ще бъдат ключови за осигуряване на бъдещия растеж на техните организации.

Тези промени подчертават, че киберсигурността вече не е самостоятелен въпрос, а ключова част от общата бизнес стратегия на компаниите. То призовава за смели и иновативни подходи, при които киберсигурността е интегрирана в процеса на бизнес преобразуване и растеж, с акцент на устойчивост, иновация и доверие.

Как генеративният изкуствен интелект (AI) ще промени киберсигурността - и като атаки, и като защита?

През 2023 година все по-разпространяващият се хибриден модел на работа, ускорената дигитална трансформация и увеличаващият се интерес към GenAI моделите оказват значително влияние върху сектора на киберсигурността. Експертите в областта се сблъскват с множество предизвикателства, включително управлението на разнообразни задачи в ограничени времеви рамки и обработка на големи масиви от данни при съществуващ недостиг на квалифицирани кадри. На базата на нашия клиентски опит GenAI вече показва значителен потенциал в няколко ключови области:

Сигурност на приложенията и анализ на уязвимостите: GenAI може да революционизира този аспект на киберсигурността, предоставяйки инструменти за анализ на код в реално време. Тези инструменти се адаптират към нови шаблони и предприемат превантивни мерки за идентифициране на сигурностни рискове, осигурявайки по-динамично и предвидливо управление на сигурността на приложенията.

Откриване на заплахи и бърза реакция: Основно предизвикателство в областта на киберсигурността е ефективното и навременно идентифициране и адресиране на заплахи. Мултимодалните GenAI модели може да се използват за синтезиране на данни от разнообразни приложения и юзъри (напр. условия за ползване, протоколи за процеси, мрежови дневници, кодове за грешки) и по-коректно за генериране на отчети. Така анализаторите ще имат време да се съсредоточат върху задачи с по-голяма добавена стойност. GenAI също може да се използва и като съветник по сигурността в случай на заплахи с по-нисък риск.

Управление и съответствие с GenAI: Това е критична област, особено в регулирани индустрии, където GenAI моделите могат да се ползват за автоматичен мониторинг и прогнозиране на регулаторни предизвикателства, поддържайки организациите информирани и подготвени за бъдещи правни изисквания.

Управление на самоличността и достъпа: Въпреки значителните инвестиции управлението на достъпа с най-малки привилегии остава до голяма степен ръчен, субективен и донякъде непроменлив процес, който често не е обект на ефективен мониторинг. Това може да се промени чрез използване на платформа за управление, насочвана от GenAI, която ще анализира фактори като длъжност на лицето, ниво в йерархията и впоследствие ще дава или отменя достъп на база определени критерии.

Въпреки положителните приложения GenAI също намира приложение в арсенала на кибератакуващите, като предоставя на тези актьори средства, сравними с тези на защитниците. Киберпрестъпниците използват GenAI за създаването на убедителни фишинг имейли, реалистични deepfake видеа и изображения, както и за промяна на познати кодове за атаки, за да избягват откриване. Така генеративният AI се превръща в двуостър меч в контекста на киберсигурността.

Обобщено - GenAI носи възможности за значително усъвършенстване на процесите в киберсигурността, като едновременно с това налага нови предизвикателства и изисква продължително надграждане на знания и стратегии от страна на специалистите в областта.

Какво могат да постигнат заедно в киберсигурността обединените сили на квантовите изчисления, машинното самообучение (ML) и GenAI?

Съюзът на квантовите изчисления с областите на машинното самообучение, GenAI и киберсигурността предвещава нова ера на възможности в постоянно променящия се технологичен пейзаж. Квантовите изчисления са мултидисциплинарна област, включваща аспекти на компютърните науки, физиката и математиката, които използват квантовата механика за решаване на сложни задачи по-бързо, отколкото класическите компютри. Съчетанието на тези области може да доведе до:

  • Подобрена обработка и анализ на данни: Квантовите изчисления предлагат изключителна обработваща мощност, която в комбинация с алгоритмите за машинно обучение и GenAI може да анализира огромни масиви от данни по-ефективно. Тази синергия улеснява откриването на сложни киберзаплахи, които традиционните изчислителни методи може да пропуснат.
  • Подобрено криптиране и сигурностни протоколи: Квантовите изчисления имат потенциала да разбият съществуващите криптографски алгоритми, което налага нуждата от квантово-устойчиви методи за криптиране. Чрез интегриране на машинно обучение и GenAI могат да се разработят нови форми на здрави и изтънчени протоколи за киберсигурност, устойчиви на атаки с квантови изчисления.
  • Предиктивна киберсигурност: Машинното обучение и GenAI могат да се използват за прогнозиране на бъдещи модели на атаки въз основа на исторически данни и текущи тенденции. Мощността на квантовите изчисления ускорява този прогностичен анализ, позволявайки на организациите да се подготвят и да предотвратят потенциални киберзаплахи, преди те да се материализират.

В този смисъл сближаването и размиването на границите между изкуствен интелект, машинно обучение и квантови изчисления дава възможност за силно укрепване на киберзащитата. Едновременно с това обаче този процес проправя пътя на по-сложни киберзаплахи. Затова трябва да се подготвим за бъдеще, в което управляваната от изкуствения интелект сигурност е нещо нормално и утвърдена практика.

Какви са етичните предизвикателства пред използването на GenAI в киберсигурността?

Етичните предизвикателства пред използването на GenAI в киберсигурността могат да се систематизират в няколко основни направления:

  • Изтичане на данни и разрастване на заплахата: в контекста на решенията, взети с помощта на GenAI, когато алгоритмите са фино настроени с вътрешни данни, може да се стигне до неволно разкриване на чувствителна информация в полза на неоторизирани лица, като например разкриване на лични данни от един клиент на друг. Отделно тези решения са податливи на различни атаки като бързи пробиви, които се стремят да заобиколят мерките за безопасност на системата и да манипулират модела, за да се генерират непредвидени резултати.
  • Променливост на резултатите: GenAI моделите могат да генерират фактически неточна информация - феномен, известен като "халюцинации", който може да бъде трудно идентифициран и да доведе до неприятни последици за бизнеса. Поради вероятностния характер на тези модели те могат да дадат различни отговори на идентични или сходни въпроси или заявки, като по този начин възпрепятстват способността на потребителя да оцени точността на резултатите.
  • Предразсъдъци (пристрастност) на моделите: всички модели с изкуствен интелект по своята същност притежават известна пристрастност, произтичаща от данните, на които са обучени. Непризнаването и несправянето с тези пристрастия може да доведе до нарушаване на принципите за етичност и отговорност на изкуствения интелект при разработване на модела, което потенциално води до дискриминационни или несправедливи резултати.
  • Предизвикателства при валидирането: подадените на алгоритъма (модела) входящи данни, както и очакваните възможности на модела могат да се изменят с течение на времето. Затова е изключително важно производителността на модела да се наблюдава постоянно и да се извършват редовни прегледи с оглед идентифициране на потенциални грешки или отклонения.

Тези опасения показват, че въпреки трансформативния потенциал на GenAI в киберсигурността неговото етично и практическо приложение изисква внимателно обмисляне, стратегическо планиране и ангажимент към етичните стандарти и сигурността на данните.