Само током последњих неколико година, могућности вештачке интелигенције су драстично напредовале. Данас можемо да користимо вештачку интелигенцију за стварање уметности, писање прича, учење о свету и још много тога. Али да ли се све ово дешава прерано? Да ли се вештачка интелигенција развија пребрзо и који знаци постоје да то сугеришу?
Зашто су људи забринути за АИ?
Крајем марта 2023. године, Институт за будућност живота објавио је на мрежи документ под називом „Паузирајте џиновске експерименте са вештачком интелигенцијом: отворено писмо“. Документ је садржао аргументе против развоја АИ мимо софистицираности ГПТ-4, најновије ОпенАИ-јеве итерације цхатбот-а који покреће АИ.
У писму је писало да „АИ системи са људском конкурентском интелигенцијом могу представљати дубоке ризике за друштво и човечанство“, и да „моћне системе вештачке интелигенције треба развијати тек када будемо сигурни да ће њихови ефекти бити позитивни и да ће њихови ризици бити управљив."
Бројне истакнуте личности у области технологије, укључујући Стива Вознијака и
Елон Муск је потписао писмо и жели да паузира развој вештачке интелигенције. Овај захтев за заустављањем развоја вештачке интелигенције довео је у питање колико АИ постаје опасна и ризике које представља за људски живот.Дакле, који знаци указују на то да се АИ пребрзо креће?
1. Такмичење са људима
Већ смо видели како технологија замењује људске раднике у безброј сценарија. Када кренете у ресторан брзе хране, сада можете наручити преко екрана рачунара, а када желите да купите намирнице, можете се одјавити помоћу аутоматизованог система. Ово може бити брза и згодна опција, али како аутоматизација постаје све израженија у различитим индустријама, потреба за људским радницима опада.
Овде почиње проблем. Наравно, људи морају да раде да би се издржавали, али пораст аутоматизације ово чини много тежим. Ово је посебно случај за раднике са минималном платом, као што су они у прехрамбеној, производној и малопродајној индустрији. Основне задатке, као што су провера поруџбина, преузимање терета и чишћење, све могу да ураде машине. Интеграција АИ значи да нам ускоро можда више неће бити потребни оператери за ову технологију.
То је известио од ФормСтацк да 76% предузећа користи аутоматизацију за стандардизацију или аутоматизацију дневних токова посла. И са Запиер извјештавајући да је 94% радника изјавило да њихов посао укључује задатке који се понављају и одузимају вријеме, Аутоматизација заснована на вештачкој интелигенцији могла би врло лако постати већина глобалне радне снаге широм света индустрије.
2. Подстицање људске лењости
Једна од кључних предности АИ је да може да поједностави толико много задатака. Али ова погодност може врло лако уступити место лењости. А у неким случајевима већ јесте.
Узмите ЦхатГПТ, на пример. Можете да користите ЦхатГПТ да урадите разне ствари попут писања есеја, истраживања тема, прављења шала, превођења текста и још много тога. Имати услугу која може брзо да изврши задатке за вас је сјајно, али нас такође води ка самозадовољству. Смањивање напора и креативности на овај начин сигурно може имати негативан ефекат на човечанство у целини, што је кључни разлог зашто је толико људи забринуто за вештачку интелигенцију.
Толико смо навикли на услуге које покреће вештачка интелигенција у данашње време, да смо им, природно, уложили много поверења. На пример, Мицрософт-ов виртуелни асистент, Цортана, користи машинско учење и вештачку интелигенцију за извршавање корисничких команди. Многи други виртуелни асистенти, укључујући Апплеов Сири, такође користе вештачку интелигенцију за функционисање.
Поверење у ову технологију може бити безбедно, али заиста нема сазнања, посебно имајући у виду да је АИ још увек у веома развојној фази.
3. Ширење лажних информација
У мејнстрим областима, вештачка интелигенција је стекла велику славу захваљујући својој способности да креира уметност, слике и видео записе. Не само да се услуге које покреће вештачка интелигенција могу користити за креирање уметности, већ могу створити и посебно контроверзан облик медија познат као деепфакес. Дубоки фајкови су видео снимци на којима се лице особе поставља на тело друге особе.
Ово звучи прилично забавно, али се врло лако може злоупотребити.
Већ постоје хиљаде видео снимака познатих и политичких личности који говоре невероватно развратне и неприкладне ствари путем деепфакеса. Док је неке деепфаке врло лако идентификовати, неке су толико софистициране да је тешко разазнати да ли су стварне или не. Када се то догоди, људи могу претпоставити да је нека јавна личност рекла нешто, што у стварности они никада нису рекли.
На основу тога ће људи стварати мишљења о овим видео снимцима, што ће допринети ширењу дезинформација на мрежи.
Штавише, четботи са вештачком интелигенцијом такође могу да дају корисницима лажне информације. Цхатботови као што су ЦхатГПТ, Боост. АИ и Дрифт могу корисницима пружити много информација, али ове информације нису увек тачне. Како је расправљао од Старатељ, АИ цхатботови ни на који начин нису посвећени пружању истинитих информација, што значи да лажне вести могу врло лако да прођу кроз пукотине и дођу до вас.
4. Стварање злонамерног софтвера
Почетком 2023. године почела је да кружи вест злонамерни актери који креирају малвер користећи ЦхатГПТ. У овом случају, компанија за сајбер аналитичаре Цхецк Поинт Ресеарцх открила је да су појединци разговарали о предностима коришћења ЦхатГПТ-а за креирање малвера на форуму за хакере. Аутор поста на форуму је поделио инфокраду коју су написали у Питхон-у користећи ЦхатГПТ, охрабрујући друге злонамерне актере да креирају малвер користећи цхатбот.
Злонамерни програми морају да буду кодирани, што може да одузме много времена, посебно ако креатор не користи шаблон из већ постојећег програма.
Коришћењем ЦхатГПТ-а, не само да злонамерни актери могу да поједноставе процес креирања злонамерног софтвера, већ и појединци који су мање технолошки потковани могу да креирају малвер. Како софистицираност вештачке интелигенције наставља да напредује, можда ће бити могуће креирати невероватно софистициран малвер који може да заобиђе антивирусно откривање, аутентификацију, заштитне зидове и друге заштитне мере.
5. Недостатак регулативе
Уобичајени проблем у технолошкој индустрији је недостатак регулативе за новије услуге, као што су платформе засноване на блокчејну и производи вештачке интелигенције. Недостатак регулативе може се сматрати добром ствари од стране неких, али такође може уступити место недозвољеним праксама.
Не само да недостатак регулације може довести до пораста превара и сајбер криминала које покреће АИ, већ и начин на који истраживачи развијају АИ технологије може такође почети да прелази неке озбиљне границе. Постоје етичка разматрања која се морају узети у обзир када се ради о АИ. Може ли систем постати превише свестан? Какав ефекте које ће АИ имати на људски живот? Да ли би требало да користимо АИ на овај начин? Листа питања се наставља и наставља.
Без регулације, неке компаније могу почети да газе моралним границама, што би, заузврат, могло бити веома лоша вест за ширу јавност.
АИ се креће брзим темпом и свакако представља ризик
Не може се порећи да је потенцијал вештачке интелигенције огроман, али то треба на одговарајући начин искористити како би се смањила могућност да ствари измакну контроли. Већ смо видели да се вештачка интелигенција користи злонамерно, тако да се не зна како би се овај проблем могао развити како ствари буду напредовале даље. Време ће показати да ли ће вештачка интелигенција постати благослов или проклетство у нашем свету, а начин на који се њоме сада поступа сигурно ће играти улогу у овом исходу.