Деепфаке технологија може бити забавна за играње, али њен потенцијал штете је значајан. Ево шта би будућност деепфакеса могла донети.

Некада је било лако уочити знакове дубоке лажне слике, али генеративна АИ нас тера да преиспитамо скоро све што видимо и чујемо сада. Са сваким новим моделом вештачке интелигенције који се појави, знакови лажне слике се смањују, а да се додају конфузија, сада можете креирати дубоке лажне видео записе, гласовне клонове својих најмилијих и фабриковати лажне чланке у само секунди.

Да вас не би заварали АИ деепфакес, вреди знати какве опасности представљају.

Еволуција Деепфакеса

Деепфаке приказује особу која ради нешто што се никада није догодило у стварном животу. Потпуно је лажно. Смејемо се дубоким лажњацима када се деле на интернету као мем или шала, али врло мало људи сматра да је смешно када се користе да нас обмањују.

У прошлости, деепфакес су креирани узимањем постојеће фотографије и њеном изменом у софтверу за уређивање слика као што је Пхотосхоп. Али оно што издваја АИ деепфаке је то што се може генерисати од нуле помоћу алгоритама дубоког учења.

instagram viewer

Тхе Мерриам-Вебстер речник дефинише деепфаке као:

Слика или снимак који је убедљиво измењен и изманипулисан да би се неко погрешно представио да ради или говори нешто што заправо није учињено или речено.

Али са напретком у технологији вештачке интелигенције, ова дефиниција почиње да изгледа застарело. Уз коришћење АИ алата, деепфакес сада укључују слике, текст, видео записе и клонирање гласа. Понекад се сва четири начина генерисања АИ користе одједном.

Пошто је то аутоматизован процес који је невероватно брз и јефтин за коришћење, то је савршено средство за производњу деепфакес брзином коју никада раније нисмо видели—све без потребе да знате ни једну ствар о томе како да уређујете фотографије, видео записе или аудио.

Велике опасности од АИ Деепфакес

Домаћин АИ видео генератори већ постоје, поред многих АИ генератори гласа. Убаците а велики језички модел као што је ГПТ-4 и имате рецепт за стварање највероватнијих деепфакеса које смо до сада видели у модерној историји.

Бити свестан различитих врста АИ деепфакеса и начина на који се они могу користити да би вас преварили, један је од начина да избегнете да будете преварени. Ево само неколико озбиљних примера како АИ деепфаке технологија представља стварну претњу.

1. АИ крађа идентитета

Можда сте их видели. Међу првим заиста виралним АИ деепфакесом који су се проширили широм света била је слика хапшења Доналда Трампа и слика папе Фрање у белој пуфер јакни.

Док се чини као невино поновно замишљање онога што би позната религиозна фигура могла да обуче током прохладног дана у Риму; друга слика, која приказује политичку личност у озбиљној ситуацији са законом, има далеко веће последице ако се узме као стварна.

До сада су људи углавном циљали познате личности, политичке личности и друге познате личности када су креирали АИ деепфакес. Делимично, то је зато што познати појединци имају много њихових фотографија на интернету које су вероватно помогле у обуци модела.

У случају АИ генератора слика као што је Мидјоурнеи – који се користи и у дубоком лажирању Трампа и Папе – корисник једноставно треба да унесе текст који описује шта жели да види. Кључне речи се могу користити за одређивање уметничког стила, као што је фотографија или фотореализам, а резултати се могу фино подесити повећањем резолуције.

Можете исто тако лако научите да користите Мидјоурнеи и тестирајте ово сами, али из очигледних моралних и правних разлога, требало би да избегавате јавно објављивање ових слика.

Нажалост, ни то што сте просечно, неславно људско биће не гарантује да сте сигурни од АИ деепфакеса.

Проблем лежи у кључној особини коју нуде АИ генератори слика: могућност да отпремите своју слику и манипулишете њом помоћу АИ. И алат као Надсликавање у ДАЛЛ-Е 2 може проширити постојећу слику изван њених граница уносом текстуалног упита и описом шта још желите да генеришете.

Ако би неко други урадио ово са вашим фотографијама, опасности би могле бити знатно веће од лажног папе у белом сакоу—могу да га користе било где, претварајући се да сте ви. Иако већина људи генерално користи вештачку интелигенцију са добрим намерама, постоји врло мало ограничења која спречавају људе да је користе за наношење штете, посебно у случајевима крађе идентитета.

2. Деепфаке Воице Цлоне Преваре

Уз помоћ вештачке интелигенције, деепфакес су прешли границу за коју већина нас није била спремна: лажни клонови гласа. Са само малом количином оригиналног звука – можда из ТикТок видео снимка који сте једном поставили или ИоуТубе видеа у којем се појављујете – АИ модел може реплицирати ваш јединствени глас.

Необично је и застрашујуће замислити да примите телефонски позив који звучи баш као члан породице, пријатељ или колега. Деепфаке гласовни клонови су довољно озбиљна брига да Федерална трговинска комисија (ФТЦ) издао упозорење о томе.

Не верујте гласу. Позовите особу која вас је наводно контактирала и проверите причу. Користите број телефона за који знате да је њихов. Ако не можете да дођете до вољене особе, покушајте да ступите у контакт са њом преко другог члана породице или њихових пријатеља.

објавио је Вашингтон пост случај пара у 70-им годинама који су примили телефонски позив од некога ко је звучао баш као њихов унук. Био је у затвору и хитно му је требао новац за кауцију. Немајући другог разлога да сумњају с ким су разговарали, кренули су даље и предали новац преваранту.

Нису само старије генерације угрожене, Пренео је Гардијан још један пример менаџера банке који је одобрио трансакцију од 35 милиона долара након серије „дубоко лажних позива“ од некога за кога су веровали да је директор банке.

3. Масовно произведене лажне вести

Велики језички модели, нпр ЦхатГПТ су веома, веома добри у стварању текста који звучи баш као човек, а тренутно немамо ефикасне алате да уочимо разлику. У погрешним рукама, лажне вести и теорије завере ће бити јефтине за производњу и требаће им више времена да се разоткрију.

Ширење дезинформација, наравно, није ништа ново, већ истраживачки рад објављено на арКсив у јануару 2023. објашњава да проблем лежи у томе колико је лако повећати излаз помоћу АИ алата. Они то називају „кампањама утицаја генерисане вештачком интелигенцијом“, за које кажу да би их политичари, на пример, могли користити за спољне послове својих политичких кампања.

Комбиновањем више од једног извора генерисаног вештачком интелигенцијом ствара се деепфаке високог нивоа. На пример, АИ модел може да генерише добро написану и убедљиву новинску причу која иде уз лажну слику хапшења Доналда Трампа. Ово му даје већи легитимитет него да се слика дели сама.

Лажне вести такође нису ограничене на слике и писање, развој у генерисању видео снимака вештачке интелигенције значи да видимо да се појављују још дубоки лажни видео снимци. Ево једног Роберта Даунија млађег накалемљеног на видео Елона Маска, који је поставио ИоуТубе канал Деепфакери.

Прављење деепфаке-а може бити једноставно као преузимање апликације. Можете користити апликацију попут ТоккингХеадс да претвори слике у анимиране аватаре, што вам омогућава да отпремите сопствену слику и звук како би изгледало као да особа говори.

Углавном је забавно и забавно, али постоји и потенцијал за невоље. То нам показује колико је лако користити нечију слику да изгледа као да је та особа изговорила речи које никада није изговорила.

Немојте да вас завара АИ Деепфаке

Деепфакес се може брзо применити уз врло мале трошкове и са малом стручношћу или потребном рачунарском снагом. Они могу имати облик генерисане слике, клона гласа или комбинације слика, звука и текста генерисаних вештачком интелигенцијом.

Некада је било много теже и радно интензивније произвести деепфаке, али сада, са много АИ апликација, скоро свако има приступ алатима који се користе за креирање деепфаке-а. Како технологија АИ деепфаке постаје све напреднија, вреди пажљиво пратити опасности које она представља.