Можда сте чули за супротстављене нападе у вези са вештачком интелигенцијом и машинским учењем, али шта су они? Који су им циљеви?

Технологија често значи да су наши животи практичнији и сигурнији. Међутим, у исто време, такав напредак је откључао софистицираније начине за сајбер криминалце да нас нападају и корумпирају наше безбедносне системе, чинећи их немоћним.

Вештачку интелигенцију (АИ) могу да користе и професионалци за сајбер безбедност и сајбер криминалци; слично томе, системи машинског учења (МЛ) могу се користити и за добро и за зло. Овај недостатак моралног компаса учинио је супротстављене нападе у МЛ све већим изазовом. Дакле, шта су заправо непријатељски напади? Која је њихова сврха? И како се можете заштитити од њих?

Шта су непријатељски напади у машинском учењу?

Адверсариал МЛ или адверсариал напади су сајбер напади који имају за циљ да преваре МЛ модел злонамерним уносом и на тај начин доводе до ниже прецизности и лоших перформанси. Дакле, упркос свом називу, адверсариал МЛ није врста машинског учења, већ низ техника које сајбер криминалци – познатији као противници – користе за циљање МЛ система.

instagram viewer

Главни циљ оваквих напада је обично преварити модел да подели осетљиве информације, не успевају да открију лажне активности, производе погрешна предвиђања или кваре анализе засноване на извештаји. Иако постоји неколико врста супротстављених напада, они често циљају на откривање нежељене поште засновано на дубоком учењу.

Вероватно сте чули за напад противник у средини, што је нова и ефикаснија софистицирана пхисхинг техника која укључује крађу приватних информација, колачића сесије, па чак и заобилажење метода вишефакторске аутентификације (МФА). На срећу, са њима се можете борити МФА технологија отпорна на пхисхинг.

Врсте непријатељских напада

Најједноставнији начин да се класификују типови непријатељских напада је да се раздвоје у две главне категорије –циљани напади и нециљани напади. Као што се сугерише, циљани напади имају одређену мету (попут одређене особе), док нециљани немају никог конкретног на уму: могу циљати скоро свакога. Није изненађујуће да нециљани напади одузимају мање времена, али и мање успешни од њихових циљаних колега.

Ове две врсте се могу даље поделити на бела кутија и Црна кутија непријатељски напади, где боја указује на знање или недостатак знања о циљаном моделу МЛ. Пре него што заронимо дубље у нападе беле кутије и црне кутије, хајде да на брзину погледамо најчешће врсте непријатељских напада.

  • Евасион: Углавном се користе у сценаријима малвера, напади избегавања покушавају да избегну откривање прикривањем садржаја е-поште заражених малвером и нежељене поште. Користећи метод покушаја и грешке, нападач манипулише подацима у време примене и нарушава поверљивост МЛ модела. Биометријско лажирање је један од најчешћих примера напада на утају.
  • Тровање подацима: Такође познати као контаминирајући напади, они имају за циљ да манипулишу МЛ моделом током периода обуке или примене и смањују прецизност и перформансе. Увођењем злонамерних уноса, нападачи ометају модел и отежавају безбедносним професионалцима да открију тип података узорка који квари МЛ модел.
  • византијске грешке: Ова врста напада узрокује губитак системске услуге као резултат византијске грешке у системима који захтевају консензус између свих његових чворова. Једном када један од његових поузданих чворова постане лажан, може покренути напад ускраћивања услуге (ДоС) и искључити систем спречавајући друге чворове да комуницирају.
  • Екстракција модела:У нападу екстракције, противник ће испитати црну кутију МЛ систем да би извукао податке о обуци или – у најгорем случају – сам модел. Затим, са копијом МЛ модела у рукама, противник би могао да тестира свој малвер у односу на антималвер/антивирус и смисли како да га заобиђе.
  • Напади закључивања: Као и код напада на екстракцију, овде је циљ да МЛ модел пропушта информације о својим подацима о обуци. Међутим, противник ће тада покушати да утврди који скуп података је коришћен за обуку система, тако да могу да искористе рањивости или пристрасности у њему.

Вхите-Бок вс. Блацк-Бок вс. Греи-Бок Адверсариал Аттацкс

Оно што издваја ове три врсте супротстављених напада јесте количина знања коју противници имају о унутрашњем функционисању МЛ система које планирају да нападну. Док метода беле кутије захтева исцрпне информације о циљаном моделу МЛ (укључујући његов архитектура и параметри), метода црне кутије не захтева информације и може само да посматра њихову излази.

У међувремену, модел сиве кутије стоји у средини ове две крајности. Према њему, противници могу имати неке информације о скупу података или друге детаље о моделу МЛ, али не све.

Како можете одбранити машинско учење од непријатељских напада?

Док су људи и даље критична компонента у јачању сајбер безбедности,АИ и МЛ су научили како да открију и спрече злонамерне нападе— могу повећати тачност откривања злонамерних претњи, надгледања активности корисника, идентификовања сумњивог садржаја и још много тога. Али да ли могу да одбију супротстављене нападе и заштите МЛ моделе?

Један од начина на који можемо да се боримо против сајбер напада је да обучимо МЛ системе да унапред препознају непријатељске нападе додавањем примера њиховој процедури обуке.

За разлику од овог приступа грубом силом, метода дефанзивне дестилације предлаже да користимо примарни, ефикаснији модел да бисмо схватили извући критичне карактеристике секундарног, мање ефикасног модела, а затим побољшати тачност секундарног са примарним један. МЛ модели обучени одбрамбеном дестилацијом су мање осетљиви на супротстављене узорке, што их чини мање подложним експлоатацији.

Такође бисмо могли стално да модификујемо алгоритме које МЛ модели користе за класификацију података, што би могло да учини нападе противницима мање успешним.

Још једна значајна техника је стискање функција, које ће смањити простор за претрагу који је доступан противницима тако што ће „истиснути“ непотребне улазне функције. Овде је циљ да се минимизирају лажни позитивни резултати и да детекција супротстављених примера буде ефикаснија.

Заштита машинског учења и вештачке интелигенције

Адверсариал напади су нам показали да многи модели МЛ могу бити разбијени на изненађујуће начине. На крају крајева, контрадикторно машинско учење је још увек нова истраживачка област у домену сајбер безбедности и долази са многим сложеним проблемима за вештачку интелигенцију и МЛ.

Иако не постоји магично решење за заштиту ових модела од свих непријатељских напада, будућност ће вероватно донети напредније технике и паметније стратегије за решавање овог страшног противник.