Вештачка интелигенција може звучати као председник. Или може звучати као ти или ја. Дакле, какав ризик за сајбер безбедност представља софтвер за клонирање гласа помоћу вештачке интелигенције?
Вештачка интелигенција (АИ) је моћна технологија која обећава да ће трансформисати наше животе. Никада то није било тако јасно као данас, када су моћни алати доступни свима који имају интернет везу.
Ово укључује АИ генераторе гласа, напредни софтвер који је способан да имитира људски говор тако компетентно да је немогуће направити разлику између њих. Шта ово значи за сајбер безбедност?
Како раде АИ гласовни генератори?
Синтеза говора, процес вештачке производње људског говора, постоји деценијама. И као и свака технологија, она је током година претрпела дубоке промене.
Они који су користили Виндовс 2000 и КСП можда се сећају Мицрософт Сама, подразумеваног мушког гласа за претварање текста у говор оперативног система. Мајкрософт Сем је обавио посао, али звуци које је произвео били су роботски, крути и неприродни. Алати које данас имамо на располагању су знатно напреднији, углавном захваљујући дубоком учењу.
Дубоко учење је а метод машинског учења који се заснива на вештачким неуронским мрежама. Због ових неуронских мрежа, модерна АИ је способна да обрађује податке скоро као што неурони у људском мозгу тумаче информације. Односно, што АИ постаје више налик човеку, то је бољи у опонашању људског понашања.
Тако, укратко, функционишу модерни АИ генератори гласа. Што су више говорних података којима су изложени, то су вештији у опонашању људског говора. Због релативно недавног напретка у овој технологији, најсавременији софтвер за претварање текста у говор може у суштини да реплицира звукове којима се храни.
Како актери претњи користе АИ гласовне генераторе
Није изненађујуће да ову технологију злоупотребљавају актери претњи. И то не само сајбер криминалци у типичном смислу те речи, већ и агенти за дезинформације, преваранти, трговци црним шеширима и тролови.
У тренутку када је ЕлевенЛабс објавио бета верзију свог софтвера за претварање текста у говор у јануару 2023, крајње десничарски тролови на огласној табли 4цхан почели су да је злоупотребљавају. Користећи напредну вештачку интелигенцију, репродуковали су гласове појединаца попут Дејвида Атенбороа и Еме Вотсон, чинећи да изгледа као да славне личности праве подле, мрске тираде.
Као Вице објављено у то време, ЕлевенЛабс је признао да људи злоупотребљавају његов софтвер, посебно клонирање гласа. Ова функција омогућава свакоме да "клонира" глас друге особе; све што треба да урадите је да отпремите једноминутни снимак, а да АИ уради остало. Вероватно, што је снимак дужи, то је бољи излаз.
У марту 2023, вирални ТикТок видео привукао је пажњу Тхе Нев Иорк Тимес. У видео снимку, познати подкастер Џо Роган и др Ендрју Хуберман, чести гост на Тхе Јое Роган Екпериенце, чули су се како разговарају о кофеинском напитку који „подстиче либидо“. Видео је показао да и Роган и Хуберман недвосмислено подржавају производ. У стварности, њихови гласови су клонирани помоћу вештачке интелигенције.
Отприлике у исто време, банка Силицијумске долине из Санта Кларе у Калифорнији пропала је због грешака у управљању ризицима и других проблема, а преузела ју је државна влада. Ово је био највећи банкрот банке у Сједињеним Државама од финансијске кризе 2008. године, па је изазвао шокове широм глобалних тржишта.
Оно што је допринело паници је лажни аудио снимак америчког председника Џоа Бајдена. На снимку се очигледно чуло како Бајден упозорава на скори „колапс“ и упућује својој администрацији да „користи сву силу медија да смири јавност“. Проверавају чињенице као ПолитиФацт су брзо разоткрили снимак, али вероватно је да су га милиони чули до тада.
Ако се АИ генератори гласа могу користити за лажно представљање славних личности, они се такође могу користити за лажно представљање обичних људи, а то је управо оно што су сајбер криминалци радили. Према ЗДНет, хиљаде Американаца пада на преваре познате као висхинг, или гласовно пхисхинг сваке године. Један старији брачни пар доспео је на насловнице на националном нивоу 2023. године када су примили телефонски позив од свог „унука“, који је тврдио да је у затвору и тражио новац.
Ако сте икада отпремили ИоуТубе видео (или се појавили у једном), учествовали у великом групном разговору са људима које не знате, или сте у неком својству поставили свој глас на интернет, ви или ваши најмилији би теоретски могли бити у опасности. Шта би спречило преваранта да отпреми ваш глас у АИ генератор, клонира га и контактира вашу породицу?
АИ генератори гласа ометају пејзаж сајбер безбедности
Није потребан стручњак за сајбер безбедност да би препознао колико АИ може бити опасна у погрешним рукама. И док је истина да се исто може рећи за сву технологију, АИ је јединствена претња из неколико разлога.
Као прво, релативно је нов, што значи да не знамо шта да очекујемо од њега. Савремени алати вештачке интелигенције омогућавају сајбер криминалцима да скалирају и аутоматизују своје операције на начин без преседана, док користе предности релативног незнања јавности у вези са овим питањем. Такође, генеративна АИ омогућава актерима претњи са мало знања и вештина креирати злонамерни код, правите сајтове за преваре, ширите нежељену пошту, пишете е-поруке за крађу идентитета, стварају реалистичне слике, и производи бескрајне сате лажног аудио и видео садржаја.
Оно што је најважније, ово функционише у оба смера: вештачка интелигенција се такође користи за заштиту система и вероватно ће се тако користити деценијама које долазе. Не би било неразумно претпоставити да је оно што нас чека нека врста трке у наоружању са вештачком интелигенцијом између сајбер криминалаца и индустрију сајбер безбедности, будући да су одбрамбени и офанзивни капацитети ових алата инхерентни једнаки.
За просечну особу, појава широко распрострањене генеративне вештачке интелигенције захтева радикалну преиспитивање безбедносних пракси. Колико год АИ била узбудљива и корисна, она у најмању руку може да замагли границу између онога што је стварно и онога што није, ау најгорем случају погоршати постојеће безбедносне проблеме и створити нови простор за маневрисање актера претњи ин.
Генератори гласа показују деструктивни потенцијал АИ
Чим је ЦхатГПТ изашао на тржиште, појачали су се разговори о регулисању АИ. Сваки покушај ограничавања ове технологије вероватно би захтевао међународну сарадњу до степена који нисмо видели деценијама, што га чини мало вероватним.
Дух је изашао из боце, а најбоље што можемо је да се навикнемо на њега. То, и надамо се да ће се сектор сајбер безбедности прилагодити томе.