Лажне вести, деепфакес, обмањујуће слике: све се то може креирати помоћу вештачке интелигенције. Ево како АИ значи да се дезинформације шире.

Вештачка интелигенција (АИ) сада игра улогу у различитим аспектима наших живота. Конкретно, генеративни АИ алати као што су ЦхатГПТ и други су значајно порасли. То значи да ће у будућности постојати обиље садржаја генерисаног вештачком интелигенцијом.

Међутим, генеративна АИ такође уводи ризик од дезинформација које генерише вештачка интелигенција. Његове карактеристике олакшавају опортунистичким појединцима ширење лажних информација. Дакле, хајде да истражимо како се генеративна АИ користи за дезинформације.

Потенцијални ризици генеративне АИ за ширење дезинформација

Генеративна АИ представља многе претње људима, попут одузимања послова, више надзора и сајбер напада. И тхе безбедносни проблеми са вештачком интелигенцијом ће постати још гори. Али постоји још једна брига: људи то могу користити за ширење лажи. Обмањујући појединци могу да користе генеративну вештачку интелигенцију да деле лажне вести путем визуелног, звучног или текстуалног садржаја.

Лажне вести се могу категорисати у три типа:

  1. Дезинформације: Ненамерне нетачне или лажне информације.
  2. Дезинформације: Намерна употреба манипулативних или обмањујућих информација.
  3. Малинформација: Обмањујуће вести или преувеличана верзија истине.

Када у комбинацији са деепфаке технологијом, генеративни АИ алати могу учинити садржај који изгледа и звучи стварним, попут слика, видео записа, аудио снимака и докумената. Постоји много могућности за стварање лажног садржаја, тако да знате како да се заштитите од деепфаке видео записа је важна.

Шириоци лажних вести могу да генеришу садржај у великим количинама, што олакшава њихово ширење међу масама путем друштвених медија. Циљане дезинформације се могу употребити да утичу на политичке кампање, потенцијално утичући на изборе. Поред тога, коришћење АИ алата за генерисање текста и слика изазива забринутост у вези са законима о ауторским правима, како је известио Истраживачка служба Конгреса: утврђивање власништва над садржајем генерисаним овим алатима постаје изазов.

Како ће се закон бавити ширењем лажних вести путем генеративне вештачке интелигенције? Ко ће бити одговоран за ширење лажних информација — корисници, програмери или сами алати?

4 начина да се генеративна АИ може користити за ширење дезинформација

Да би остали безбедни на мрежи, сви морају да разумеју ризике генеративне вештачке интелигенције у ширењу дезинформација, јер долазе у много различитих облика. Ево неколико начина на које се може користити за манипулисање људима.

1. Генерисање лажног садржаја на мрежи

Прављење лажног садржаја коришћењем генеративне вештачке интелигенције је уобичајена стратегија коју користе они који шире лажне вести. Они користе популарне генеративне АИ алате као што су ЦхатГПТ, ДАЛЛ-Е, Бард, Мидјоурнеи и други за производњу различитих врста садржаја. На пример, ЦхатГПТ може помоћи креаторима садржаја на много начина. Али такође може да генерише постове на друштвеним мрежама или чланке вести који могу преварити људе.

Да бих то доказао, подстакао сам ЦхатГПТ да напише измишљени чланак о хапшењу америчког председника Џоа Бајдена под оптужбом за корупцију. Такође смо тражили да укључи изјаве релевантних органа како би изгледало уверљивије.

Ево измишљеног чланка који је ЦхатГПТ смислио:

Изненађујуће, резултат је био веома убедљив. Укључује имена и изјаве ауторитативних личности како би чланак био убедљивији. Ово показује како свако може да користи такве алате да генерише лажне вести и да их лако шири на мрежи.

2. Коришћење чет-бота за утицај на мишљења људи

Чет-ботови који се ослањају на генеративне АИ моделе могу користити различите тактике да утичу на мишљење људи, укључујући:

  • Емоционална манипулација: АИ може да користи моделе емоционалне интелигенције да искористи емоционалне окидаче и предрасуде да обликује ваше перспективе.
  • Ехо коморе и пристрасност потврде: Чет-ботови могу да ојачају постојећа уверења стварањем ехо комора које потврђују ваше предрасуде. Ако већ имате одређено гледиште, АИ га може ојачати представљањем информација које су у складу са вашим мишљењима.
  • Друштвени доказ и ефекат банде: АИ може да манипулише јавним осећањима генерисањем друштвених доказа. Ово може имати значајне последице, јер може навести појединце да се повинују популарним мишљењима или следе гомилу.
  • Циљана персонализација: Чет-ботови имају приступ огромној количини података које могу да прикупе да би креирали персонализоване профиле. Ово им омогућава да прилагоде садржај на основу ваших преференција. Кроз циљану персонализацију, АИ може убедити појединце или додатно ојачати њихово мишљење.

Сви ови примери илуструју како се цхат ботови могу користити за заваравање људи.

3. Креирање АИ ДеепФакес

Неко може да користи деепфакес да направи лажне видео снимке појединца који говори или ради ствари које никада нису урадили. Они могу да користе такве алате за друштвени инжењеринг или вођење клеветничких кампања против других. Штавише, у данашњој култури мема, деепфакес могу послужити као алати за малтретирање путем интернета на друштвеним медијима.

Поред тога, политички противници могу користити дубоко лажне аудио и видео записе да укаљају репутацију својих противника, манипулишући јавним осећањима уз помоћ вештачке интелигенције. Тако Дубоке фајке генерисане вештачком интелигенцијом представљају бројне претње у будућности. Према подацима из 2023 Ројтерс извештава, успон технологије вештачке интелигенције могао би да утиче на изборе у Америци 2024. Извештај наглашава доступност алата као што су Мидјоурнеи и ДАЛЛ-Е који могу лако да креирају измишљени садржај и утичу на колективна мишљења људи.

Кључно је, дакле, моћи идентификују видео записе направљене помоћу деепфакеса и разликовати их од оригинала.

4. Клонирање људских гласова

Генеративна АИ, заједно са деепфаке технологијом, омогућава манипулацију нечијим говором. Деепфаке технологија брзо напредује и нуди низ алата који могу да реплицирају било чији глас. Ово омогућава злонамерним појединцима да се лажно представљају за друге и да обману појединце који ништа не сумњају. Један такав пример је коришћење деепфаке музике.

Можда сте наишли на алате као што су Слично АИ, Спеецхифи, Лажни сте, и други који могу да опонашају гласове познатих личности. Иако ови аудио алати АИ могу бити забавни, они представљају значајне ризике. Преваранти могу да користе технике клонирања гласа за разне лажне шеме, што резултира финансијским губицима.

Преваранти могу да користе дубоке лажне гласове да имитирају ваше вољене и зову вас, претварајући се да су у невољи. Са синтетичким звуком који звучи убедљиво, могли би да вас натерају да хитно пошаљете новац, што ће вас довести до тога да постанете жртва њихових превара. Инцидент који је пријавио Тхе Васхингтон Пост у марту 2023. илуструје ово питање: преваранти су користили лажне гласове да убеде људе да су њихови унуци у затвору и да им је потребан новац...

Како уочити дезинформације које шири АИ

Борба против ширења дезинформација које омогућава вештачка интелигенција је горуће питање у данашњем свету. Дакле, како можете уочити лажне информације које је направила АИ?

  1. Приступите онлајн садржају са скептицизмом. Ако наиђете на нешто што изгледа манипулативно или невероватно, проверите то унакрсном провером.
  2. Пре него што верујете новинском чланку или објави на друштвеним мрежама, уверите се да потиче из реномираних извора.
  3. Пазите на индикаторе дубоког лажирања, као што су неприродно трептање или покрети лица, лош квалитет звука, изобличене или мутне слике и недостатак истинских емоција у говору.
  4. Користите веб локације за проверу чињеница да бисте проверили тачност информација.

Пратећи ове кораке, можете се идентификовати и заштитити од дезинформација које покреће вештачка интелигенција.

Чувајте се дезинформација које шири АИ

Генеративни софтвер је одиграо кључну улогу у унапређењу вештачке интелигенције. Ипак, они такође могу бити значајан извор дезинформација у друштву. Ови приступачни алати су омогућили свакоме да креира различите типове садржаја користећи софистициране АИ моделе; њихова способност да генеришу садржај у великим количинама и инкорпорирају деепфакес чини их још опаснијим.

Важно је да сте свесни изазова дезинформација у ери вештачке интелигенције. Разумевање како се вештачка интелигенција може користити за ширење лажних вести је први корак ка заштити од дезинформација.