Кой ще използва AI по-добре: хакерите или защитниците

Възходът на изкуствения интелект е най-новият етап в кибервойната

Shutterstock    ©  Shutterstock
Бюлетин: DemistifAI DemistifAI

Седмичният бюлетин на Капитал и Digitalk DemistifAI е вашия източник на информация за еволюцията на изкуствения интелект и неговото въздействие върху бизнеса.

В киберсигурността има термин, който лесно описва тежката задача, пред която са изправени специалистите в сектора. Според така наречената "Дилема на защитника" (Defender's Dilemma) хакерите са успешни, дори да пробият само един път, но пък "защитниците" трябва да отбиват атаките им през цялото време. Обемът и комплексността на такава отбрана са огромна и ресурсоемка задача. Точно тук идва и ролята на изкуствения интелект, който може значително да подпомогне работата на киберекспертите. Но пък хакерите също имат достъп и се възползват от технологията. Въпросът е кой ще получи предимство в дългосрочен план.

Веднъж на поколение

Според последните анализи и проучвания интеграцията на AI за киберсигурност се ускорява, като мнозинството от мениджърите планират инвестиции в управлявани от AI решения за сигурност през следващите две години. Проучване на Blackberry установи, че 82% от анкетираните компании и организации възнамеряват да отделят бюджет за AI сигурност до 2025 г., като почти половината са направили това до края на 2023 г. Тези констатации подчертават все по-важната роля на технологията в борбата с киберзаплахите.

С разрастването на големите езикови модели и други инструменти за изкуствен интелект анализаторите остават разделени по въпроса дали AI решенията ще дадат предимство на нападателите или защитниците в киберпространството. В Google например са убедени, че естеството и сегашното развитие на изкуствения интелект са в полза на киберспециалистите.

"Това е нашият момент, който се случва веднъж на поколение: да променим динамиката в киберпространството към по-добро, шанс за дълбока трансформация, а не за моментни победи", се казва в доклада на Google "Как AI може да обърне Дилемата на защитника". Според авторите му AI из основи пренастройва дигиталното изживяване и в един момент може да се окаже по-голям дори от самия интернет. "Интернет се състои от обширна мрежа от взаимосвързани компютри, която е изградена за надеждна комуникация и маршрутизиране на информация. Но не е изграден с идеята за сигурност още от създаването му. И в течение на времето основата му беше усложнена значително с нови и нови слоеве софтуер, които пък носят още уязвимости", според Google.

За разлика от интернет, AI се изгражда от нулата, за да отговори на проблемите със сигурността. Нещо повече - той може да анализира данни за секунди, за да подпомогне претоварения персонал по киберсигурността при откриването и осуетяването на атаки. Изкуственият интелект също така автоматизира рутинни функции за сигурност и с времето разработва "самовъзстановяващи се" мрежи, които се учат от поведението на нападателя, за да блокират атаките автономно, посочват авторите на доклада.

"Умението на изкуствения интелект да "разсъждава" ефективно произтича от способността му да се учи. Машинното самообучение позволява на една AI система да подобри ефективността си за изпълнение на дадена задача, без да бъде изрично програмирана за всякакъв конкретен сценарий", се казва в доклада.

Вече има и добри примери: според Google услугата на компанията за откриване на злонамерен софтуер VirusTotal е отчела през ноември, че AI идентифицира злонамерени скриптове до 70% по-добре от традиционните методи. Google отвори за външни разработчици и платформата си Magika - базиран на AI инструмент за идентифициране на файлове малуер. Използва се в Gmail и Drive и според групата Magika е с 30% по-точна от досегашните методи за идентификация и има 95% по-висока прецизност при трудно за идентифициране проблемно съдържание във VBA, JavaScript и Powershell. Ето защо Google отпуска и 2 млн. долара грантове за научни изследвания и стратегически партньорства в областта на сигурността, задвижвана от AI.

Други експерти и компании също дават предимство на защитниците. "В момента вероятно има повече ползи за киберсигурността при използването на AI, отколкото заплахи от нашите противници, които го използват. Но става дума за несигурен баланс и е нещо, което във ФБР не приемаме за даденост", обяви през февруари по време на конференция на Trellix Синтия Кайзер, заместник помощник-директор на киберотдела на ФБР.

Анализаторите предупреждават, че генеративните AI модели могат да бъде полезни на хакерите, които чрез тях да откриват уязвимости и автоматично да пишат зловреден код. Но Кайзер посочва редица начини, по които технологията помага на защитниците, включително чрез откриване на злонамерена дейност в мрежите на жертвите, светкавична реакция при инциденти, разработка на софтуер и други дейности.

Как хакерите се възползват от AI

Първият начин, по който хакерите използват изкуствен интелект в своя полза, е чрез надграждане на мануални задачи като писането на фишинг имейли. Фишинг имейлите, написани от AI, имат по-голям шанс да бъдат отворени спрямо тези, написани от хора. AI може да създаде и други инструменти в помощ на хакерите като постоянно променящ се зловреден софтуер за избягване на защитата, като ботнет мрежи или фалшиви идентификационни данни (включително неистински CAPTCHA) за заобикаляне на протоколи за сигурност.

Те могат също така могат да използват технологията, за да открият уязвимости. След като пробият дадена мрежа, хакерите могат да подадат фалшива информация на защитния AI, за да променят точността на алгоритъма му. Откриването на уязвимости в софтуера или поведението на потребителите е лесно и хакерите имат абсолютно същите възможности, каквито и анализаторите.

"В днешния свят на киберсигурност AI е в полза за нападателите. Не обичаме да говорим за това, но технологията им позволява просто да са по-бързи, и то с такива бързина и мащаб, каквито досега не сме виждали. Да, AI ни помага много в защита и върши страхотна работа по откриването на измами и пробиви. Но в дългосрочен план, отново, ако битката е между машина или човек с няколко машини, които му помагат, става дума за битка за обем, защото такова е киберпространството в наши дни, ние ще загубим", смята Джон Роуз, главен технологичен директор на Dell Technologies.

Въпреки това не всеки може лесно да използва AI със злонамерени цели. Макар изкуственият интелект да се самообучава, е трудно човек да се ориентира в неговата сложност и комплексност, за разлика от сертифицираните анализатори по киберсигурност, които имат години опит на един от най-конкурентните пазари на труда в съвременната епоха. Следователно за обикновения хакер ще е по-трудно да работи с AI от дългогодишния специалист по AI.

В полза на защитниците

Според Google има две основни причини защитниците да се възползват по-добре от AI технологиите. На първо място според гиганта е фактът, че дори най-слабите звена по веригата ще имат AI сигурност. Днес интернет свързва милиони по-малки организации с малък или дори нулев капацитет за киберсигурност. Ако една от тях или няколко бъдат пробити, мрежата е компрометирана. Но според Google AI може да постави способен "експерт" по сигурността във всяка от тези организации. С течение на времето AI може да обедини и автоматизира начините, по които софтуерът се разработва, внедрява и управлява. Това създава "базирана на изкуствен интелект дигитална имунна система", която се учи от хакерските атаки и споделя опита си в реално време в облака.

Другата теза на Google e, че защитниците ще разполагат с много по-добри AI модели. Колко добра е една AI система зависи от нейните основни модели, а колко добри са моделите зависи от количеството и качеството на техния набор от данни. Повечето хакери нямат достъп до такъв обем качествени данни, каквито имат експертите по киберсигурност. А обединяването на набори от данни, свързани със сигурността, ще гарантира, че защитниците имат достъп до по-добри модели от атакуващите. В същото време Google все пак предупреждава, че хакерите могат да откраднат или подкопаят модели.

В полза на нападателите

Още е рано за оценка на въздействието на AI върху киберсигурността, но едно нещо е ясно: AI създава огромни проблеми, защото позволява да се предприемат атаки срещу системи в реално време и след като бъдат задействани, те да се повтарят непрекъснато и с минимални усилия, смята Мутукришнан Раджараджан, директор на Института за киберсигурност в University of London. Според него е факт, че каквато и защитна линия да бъде поставена, AI злонамереният софтуер намира начин да я заобиколи. Разбиването на добри пароли например сега може да отнеме дни или дори минути за една AI система. AI фишинг атаките също ще достигнат по-високо ниво, не на последно място и защото AI може да създава персонализирани фишинг имейли, които ще бъдат трудни за разпознаване от хората, твърди Раджараджан. И по-големият проблем е, че ще има все повече и повече начини, чрез които зловредният софтуер, подпомогнат от AI, може да намери входна точка. AI също така означава, че ресурсите ще бъдат изключително важен въпрос. AI не е евтин, така че използването му за защита срещу кибератака ще се окаже скъпо. Това е нещо, което големият бизнес може да покрие, но вероятно оставя по-малките компании незащитени. А те работят с големите...

В по-дългосрочен план квантовите изчисления ще помогнат при защитата от атаки, базирани на AI. Вече виждаме някои по-големи организации и правителства да използват квантови системи. Но широкото им използване за комерсиални цели още е далеч.
3 коментара
  • Най-харесваните
  • Най-новите
  • Най-старите
  • 3
    quantumfoam avatar :-?
    quantumfoam

    Истинският прочит гласи: КОГАТО ТИ КАЗВАТ ДА ГЛЕДАШ В ДАДЕНА ПОСОКА, ОГЛЕЖДАЙ СЕ ВЪВ ВСЕВЪЗМОЖНИТЕ ДРУГИ ИЗМЕРЕНИЯ !
    Контекстно и тематически, това означава, че реалностите на настоящата и близкобъдещна компютърна несигурност са далеч отвъд списваното във вес`ник „капиталистинь“.

    Нередност?
Нов коментар