Вештачка интелигенција и машинско учење могу учинити чуда, од стварања уметности до аутоматизације администраторских послова. Али они такође представљају ризик јер могу да оснаже лоше глумце триковима као што је деепфаке.
Како се ова конкретна технологија развија, добра је идеја да научите како деепфакес заправо функционишу и ко би уопште желео да их користи - и легитимно и илегално.
Зашто је важно разумети како и зашто се Деепфакес користе
Уобичајене примене деепфаке технологије се углавном врте око смешних, порнографских или биоскопских материјала, али студија је показала да деепфакес могу заварати препознавање лица. Само ово је разлог за бригу и опрез.
Што се више технологија користи у свакодневном животу и пројектима великих размера, њени програмери боље уче да праве беспрекорне лажне видео снимке људи, било славних или чланова породице.
Разумевање како да се заштитите од деепфаке видео записа је сада неопходно, с обзиром на то колико индустрије жељно прихватају предности технологије, посебно у области забаве.
Холивуд га је користио на неколико пројеката много раније Метапхисиц-ов деепфаке АГТ унос, који је показао свету колико брзо и ефикасно креирање деепфаке може бити. Ево шта процес укључује.
Како функционишу Деепфакес?
У погледу онога што се крије иза деепфакеса, траг је у имену: дубоко учење, наука о вештачким неуронским мрежама (АНН). Оно што они раде за деепфаке алгоритме је да апсорбују податке, уче из њих и креирају нове податке у облику израза лица или целог лица изнад вашег.
Програмери деепфаке софтвера обично користе један од два типа АНН-а: аутоенкодере или генеративне адверсариал мреже (ГАН).
Аутоматски кодери уче да реплицирају масу података којима се уносе, углавном фотографије лица и израза лица, и поново креирају тражене скупове података. Међутим, ретко су точне копије.
ГАН, с друге стране, имају паметнији систем, који укључује генератор и дискриминатор. Први репродукује податке за које се сазна у деепфакес који онда морају да заварају други.
Дискриминатор упоређује креације генератора са стварним сликама и утврђује њихову ефикасност. Најбољи деепфакес, наравно, су они који савршено опонашају људско понашање.
Дакле, како се деепфакес праве овом технологијом? Алгоритми иза апликација попут Рефаце и ДеепФацеЛаб стално уче из података који пролазе кроз њих како би могли ефикасно да прилагоде црте и изразе лица или да слоје једно лице преко другог.
Софтвер је у основи видео уређивач посебно дизајниран да манипулише лицима. Неке апликације су сложеније од других, али све у свему можете учинити било шта, од старења некога горе или доле до уређивања себе у филмове.
Али технологија и даље има недостатке. Деепфаке стварање може бити компликованије од како се праве лажни видео снимци уживо, али може бити једнако лако открити као и лажно.
Како уочити Деепфаке
Пошто дубоке фајке углавном праве машине, карактеристике или манири дигиталног лица не изгледају увек природно. Такође може доћи до грешака у подешавању видеа. Другим речима, можете рећи лажне снимке ако знате шта да тражите.
Ево неколико знакова упозорења:
- Неприродно трептање: Машинско учење често занемарује трептање очију или га чини чудним.
- Замућене или нестабилне карактеристике: Нечија коса, уста или брада могу бити мало замућени или се крећу на чудне, често преувеличане начине.
- Недостатак или погрешно представљање емоција: Лоши деепфакес су равнодушни или лоше опонашају емоције.
- Неугодан говор тела: Ако особа на видео снимку помера главу или тело на искривљене или неповезане начине, то може бити лажно.
- Погрешне боје и осветљење: Промене боје, необјашњива светла и сенке су сигурни знаци лажног видеа.
- Недоследни објекти: Приликом прилагођавања видеа, софтвер деепфаке може направити грешке, као што је промена облика одеће, накита и позадинских предмета.
- Лош звук: Дубоки фајкови могу изобличити говор и звукове у видеу.
Чине већину начини за уочавање деепфакеса тако што ћете научити за шта се такви видео снимци обично праве и посветити велику пажњу детаљима у снимку које видите на мрежи – успорите га, ако је могуће.
Поред тога, развија се све више алата, нпр Мицрософт Аутхентицатор и Сенсити'с Форензичка Деепфаке Детекција, који анализира видео записе на нивоу минута.
Ко користи Деепфакес?
Филмски ствараоци све више користе деепфакес да остаре или замене лица глумаца, као у Ратовима звезда. Уметници успевају да анимирају портрете и натерају их да причају и певају.
Маркетиншки стручњаци експериментишу са деепфаке технологијом за промотивни садржај који не захтева ангажовање глумаца. Компаније као што је ВПП то такође примењују на своје видео снимке за обуку.
Техничари, генерално, праве смешне видео снимке у којима мењају лица са пријатељима или слоје једног глумца преко другог у популарним филмовима. Силвестер Сталоне је преузео Само у кући, а Џокер Хита Леџера појавио се у Витешкој причи.
Нажалост, ако истражите за шта се још користи деепфаке технологија, наћи ћете много злонамерних случајева. Креатори Деепфаке воле да шире дезинформације и увредљиве поруке, као и да циљају познате личности и стављају их у филмове за одрасле. Људи су чак уцењени лажним снимцима.
У свом тренутном необузданом облику, деепфаке је синоним за ризик по права људи на приватност, безбедност, па чак и ауторска права, на пример, када алгоритам јасно користи фотографију или уметничко дело које није јавно доступан.
Због тога земље и брендови спуштају своју ногу. Од 2021. године, према Мапа Цибер Цивил Ригхтс Инитиативе дубоко лажних закона у САД-у, четири државе сада сузбијају објављене деепфаке видео снимке који приказују некога на експлицитан или на други начин штетан начин.
Кина такође предузима кораке да криминализује деепфакес који штете људима и друштву, било кршењем индивидуалних права или ширењем лажних вести. Чак најавила је Мета 2020. да обмањујући, изманипулисани видео снимци нису били добродошли.
Поред прописа, званични органи широм света залажу се за боље откривање и превенцију лажних злочина. Тхе Извештај Ратхенау Института о томе како европска политика треба да се носи са деепфакес подржава софтвер са алаткама као што су препознавање говорника и лица, детекција живости гласа и анализа црта лица.
Научите како Деепфакес функционишу да вас обману
Дубоки фајкови су већ постали мејнстрим, у добру и злу. Дакле, уживајте у смешним и инспиративним видео записима док се припремате да се ухватите у коштац са свим злонамерним видео записима.
На крају крајева, шта је деепфаке као што је овај, осим алат дизајниран да вас превари? Ако знате шта да тражите и како да реагујете, то има мање моћи над вама.
На пример, моћи ћете да уочите деепфакес на друштвеним медијима поред лажних вести и налога и избегавате дезинформације, покушаје крађе идентитета и још много тога. Како се технологија откривања и превенције дубоког лажирања буде побољшавала, више подршке ће вам доћи.