AI може да направи финансовите измами съвършени

Изкуственият интелект оформя нова ера на киберизмами и дигитални предизвикателства

Темата накратко
  • Въпреки инвестициите в детекция и предотвратяване финансовите измами, свързани с дийпфейк, продължават да растат.
  • Дори в платформи като YouTube потребителите трябва да са нащрек за спонсорирани и рекламни съобщения, особено ако обещават нещо, което изглежда твърде добро, за да е истина.
  • Сайтове като zerogpt.com предоставят инструменти, които могат да проверят дали даден текст е генериран от AI.

Телефонно обаждане с гласа на собственото ви дете, а често и видеоразговор с него, в които то иска да му изпратите пари до сметката на негов приятел; съпруг, който си е направил онлайн още един банков акаунт с лимит по кредитна карта с личните му биометрични данни. В първия случай детето изобщо не е било дете и не е вашето, а във втория съпругът не си е правил банкова сметка с кредитна карта, но парите от нея вече са източени. Изкуственият интелект позволява на измамниците да стават все по-креативни, а горните два примера вече са съвсем реални до какви висини достигат те.

В момента се оформя цяла индустрия за дийпфейк (от английски: deepfake) - фалшификации, които използват широк набор от инструменти, за да преправят глас, видео, лице и всякакви потребителски данни. Ако допреди години дийпфейк се използваше основно за пропаганда и фалшиви новини, днес мащабите му са далеч по-сериозни, а загубите от това се изчисляват на милиарди долари всяка година - за институции и за потребители. Затова и първите хвърлят огромни ресурси, за да предотвратят опитите за измами, но клиентите пък трябва да са наясно за тези рискове и как да се предпазят от тях.

И понеже дейността й е изцяло в сивия сектор, тя се подхранва изключително и от Dark Web, където се продават лични данни и всякаква крадена информация.

В същността си тя използва форма на изкуствен интелект, съчетан с машинно обучение, за да се заменят във видеоклип или аудиозапис изказвания или действия на различни хора. Целите включват измами с цел финансова облага, създаване на фалшиви компромати и манипулации на обществено мнение, лъжливи реклами, но и форма на изкуство и креативност, която позволява на хората да изразяват своите идеи по нов начин. Технологията може да бъде използвана за създаване на впечатляващи визуални произведения и дори образователни материали.

Всички сме чували легенди за мейли на "принцове в затруднение", нуждаещи се от помощ за спасяването на техните изгубени съкровища, или дори за български политически елит, "жертва" на дийпфейк кампании... Истината е, че много преди изкуственият интелект да стане широко достъпен за всеки с интернет връзка, светът се бори с безконтролен ръст на финансовите измами. Според Bloomberg само в САЩ гражданите са загубили близо 8.8 млрд. долара миналата година - ръст с 44% спрямо 2021 г. въпреки рекордните инвестиции в детекция и предотвратяване на измамите. Експерти по финансовата престъпност от големи банки като Wells Fargo & Co. и Deutsche Bank подчертават, че предстоящият бум на измамите е една от най-големите заплахи за тяхната индустрия.

Без значение дали спонсорирана реклама, или "обръщение на президента" на САЩ, дийпфейковете на днешния ден непременно ще поставят общата ни култура на тест. Изкуственият интелект не само предоставя нови инструменти за измамници, но и потенциал за огромни финансови загуби за жертвите. Особено опасно е, че високата степен на развитие на технологията прави всякакъв тип хора потенциални жертви, без значение колко са осведомени. Все пак ковид-19 ускори приемането на онлайн банкирането по целия свят. На глобално ниво разходите по киберпрестъпността, включително измамите, са напът да достигнат 8 трлн. долара тази година, а прогнози показват, че до 2025 г. те ще нараснат до 10.5 трлн. долара.

Основният проблем за компаниите е, че всеки път, когато те налагат строги мерки, престъпниците откриват решения на нововъзникналия пред тях проблем. Някои американски банки например изискват качването на снимка на личен документ при регистрация. Измамниците купуват откраднати данни от тъмната мрежа и създават физически 3D маски, за да подправят лични документи. Примерът с 3D маските е само върхът на айсберга. Всеки ден появяват нови и изтънчени методи за измама - от симулирани гласове и видеа, създадени с помощта на изкуствен интелект, до кражби на биометрични данни или дори "социално инженерство", при което измамниците използват човешките емоции и убеждения срещу самите нас.

Защитните мерки трябва да станат по-гъвкави и интегрирани. И докато банките и други институции инвестират в технологии, потребителите трябва да станат по-осведомени. Образователни кампании, уъркшопи и семинари по киберсигурност може да помогнат на хората да разберат рисковете и начините, по които могат да се защитят.

Всъщност това се отнася не само за индивидуалните потребители, но и за бизнеса. Много компании стават жертва на такива атаки и измами, което води до огромни загуби не само от финансова гледна точка, но и по отношение на корпоративната им репутация.

Как да се предпазим от измами

В епохата на дигиталната дезинформация, когато изкуственият интелект може да създаде изображения и звуци, които изглеждат и звучат толкова реалистично, колкото оригинала, предизвикателството е ясно: как да отличим истината от фалшивото?

Според източници на IEEE Spectrum индустрията разработва редица инструменти за разпознаване на дийпфейкове (фалшификати). Въпреки това нито един от тях не е безпогрешен. Intel, един от водещите играчи в сектора, вече има система, наречена Real-Time Deepfake Detector. Въпреки че засега не е предназначена за крайните потребители, социалните мрежи, медиите и институциите могат да я използват като основа за предоставяне на инструменти за обществото. Чрез комбинация на фирмения хардуер и софтуер Intel се стреми да анализира до 72 видеострийма едновременно, като увеличава шансовете за улавяне на фалшификати.

FakeCatcher, плод на сътрудничество между Intel и Университета на Бингхамптън, следи детайли като промяната в притока на кръв в лицето - подход, който може да бъде революционен, с постигната до момента точност от 91%. PhaseForensics от Университета на Калифорния пък е фокусиран върху устните и техните движения, с впечатляваща точност от 94% при тестове. Aудиоизмамите са основен проблем, защото се произвеждат по-лесно и се използват за специфични измами по телефона. Независимо от наличието на множество инструменти дийпфейк технологиите продължават да напредват и не може да разчитате, че ще разпознаете разликата, ако се вслушвате във всяка дума или се взирате в очите на "човека" срещу вас.

Клонирането на глас на човек става все по-лесно. След като измамник изтегли кратка извадка от аудиоклип от нечия социална медия или съобщение от гласовата поща, 30 секунди са достатъчни, той може да използва инструменти за гласово синтезиране на AI, лесно достъпни онлайн, за да създаде съдържанието, от което се нуждае. Най-използваните отворени приложения са LensaAI, Deepfakes Wev, DeepFaceLab и deepfakesweb. В последното, в зависимост от това колко дълго учите модела си, толкова по-добър става той и за около 100 долара може да заблудите огромен кръг от хора.

Трябва да се внимава в сайтовете, които се използват и за всичко спонсорирано и рекламно по надеждните сайтове като Youtube. Ако например се доверите на Мъск, че ще ви удвои биткойните, след като ги пратите до адреса му, може би просто си го търсите. Решенията, които се предлагат, като водни знаци и блокчейн систем, са обещаващи, но индустрията трябва да намери единна стратегия. Въпросът остава: можем ли някога да бъдем напълно сигурни в автентичността на това, което виждаме и чуваме онлайн? Това предизвикателство ще определи доверието в дигиталния свят през следващото десетилетие.

Регулации

Регулации на практика няма. Единствено в Китай има действащ закон, който забранява създадено от изкуствен интелект съдържание да се разпространява без ясен етикет за неговия произход, както и изискване за регистрация на авторите му. В началото на май няколко членове на Европейския парламент поискаха организирането на световна среща за опасностите, свързани с изкуствен интелект, а страни като Германия са двигателна сила за създаването на нова правна рамка, свързана с AI. Тъй като измамите стават все по-сложни, въпросът кой е отговорен за загубите става все по-спорен. В Обединеното кралство например жертвите на неизвестни транзакции - да речем, някой копира и използва вашата кредитна карта - са законово защитени срещу загуби, но нещата много се размиват, ако вие по някакъв начин сте помогнали на измамна сделка да се извърши.

Преди няколко дни изпълнителният директор на OpenAI Сам Алтман говори пред американския конгрес, като изрази мнението си, че модификациите на AI и възникващите от AI продукти могат да бъдат манипулирани и ограничаването им е изключително нужно.

"Едно от най-големите ми притеснения е общата способност на тези модели да манипулират, да убеждават и да осигуряват вид интерактивна дезинформация. Следващата година предстоят избори, а тези технологии стават все по-добри и мисля, че това е съществена тема за притеснение. Има много политики, които компаниите могат доброволно да приемат, и смятам, че е нужна регулация", каза още Алтман.

Как да различаваме фалшификати

Без значение дали използвате чат ботове, или дали се интересувате от изкуствен интелект и развитието на приложенията, които го използват, все по-често ставаме свидетели на текстове, видеа и записи, които не изглеждат напълно нормално, но са генерирани от AI. В идеалния случай технологията трябва да бъде използвана, за да подпомага дейността ни, като извършва сложни процеси за отрицателно време или като обяснява и развива наши убеждения.

Програмите за плагиатство все още не засичат AI генерирани текстове, защото на практика те остават уникални, дори да са "научени" или да имат модели върху чужди текстове, но съществуват алтернативи като безплатната zerogpt.com, където само с поставяне на текста под въпрос ще разберете дали и каква част от него е генерирана с AI. Когато стане въпрос за текст, е лесно, но когато става дума за снимки, видео или аудио, е малко по-сложно. Снимката на папа Франциск с бялото пухено яке от март тази година заблуди мнозина, преди да стане ясно, че изображението е генерирано с AI.

Подобряването на технологията в комбинация със социалните мрежи предизвиква вълна на недоверие, в което всеки потребител се чуди съдържанието, което вижда дали е "реално" или "фалшиво". В някои случаи изкуственият интелект се издава сам: при изображенията има недостатъци - ръцете и очите например все още не се генерират достатъчно добре, което може да е доказателство за фалшификат. С видеото е същото като с изображенията, малки недостатъци или дефекти могат да издадат дийпфейка. Други разчитат на инструменти, като AI Voice detector, който чрез изкуствен интелект и богата база с данни сравнява измерители като тембър, интонация и други. Разликите обаче се свиват, а технологиите се подобряват, което означава, че малките дефекти могат след време да изчезнат и за невъоръжено око би станало невъзможно да се различи истинността на съдържанието. Засега обаче човекът все още има предимство пред машината.

1 коментар
  • Най-харесваните
  • Най-новите
  • Най-старите
  • 1
    balada avatar :-P
    balada

    "AI може да направи финансовите измами съвършени" в секцията "Как да ..." дава идеи (!) как да направим нещо. Някои от идеите интересни 😊

    Нередност?
Нов коментар