Развој вештачке интелигенције убрзано напредује, али ко би требало да води вештачку интелигенцију и њен утицај на свет?

Кључне Такеаваис

  • АИ је потребан строжији надзор, јер се рањивости сајбер-безбедности и забринутости за приватност и даље појављују.
  • Влада, технолошке компаније и крајњи корисници имају улогу у регулисању вештачке интелигенције, али сваки приступ има своја ограничења.
  • Медији, непрофитне организације, удружења технолошке индустрије, академске институције и агенције за спровођење закона такође доприносе регулисању АИ.

Шира јавност има различите ставове о вештачкој интелигенцији – неки верују да ће машине у потпуности заменити људске раднике, док други тврде да је АИ модна мода. Међутим, једна ствар око које се сви слажу је да АИ треба строжије праћење.

Упркос важности регулације вештачке интелигенције, обука је отишла у позадини. Програмери су толико опседнути изградњом следећег највећег АИ модела да тргују сајбер-безбедношћу за брзи напредак. Питање није да ли АИ треба регулацију; то је које ће управљачко тело са адекватним финансирањем, људским ресурсима и технолошким капацитетима преузети иницијативу.

Дакле, ко би требало да регулише АИ?

Владина тела

Разни људи, од потрошача до технолошки лидери, надају се да ће влада регулисати АИ. Јавно финансиране институције имају ресурсе за то. Чак и Елон Муск и Сем Алтман, два главна покретача трке АИ, верују да неки забринутост за приватност у вези са вештачком интелигенцијом сувише су опасни за управна тела да би их занемарили.

Влада би требало да се фокусира на заштиту приватности и грађанских слобода својих бирача ако преузме регулацију вештачке интелигенције. Сајбер криминалци настављају да проналазе начине да искористе системе вештачке интелигенције у својим шемама. Појединци који нису добро упознати са вештачком интелигенцијом могу лако да буду преварени синтетизованим гласовима, дубоким лажним видео записима и онлајн профилима којима управљају ботови.

Међутим, једно од главних проблема са владом која регулише вештачку интелигенцију је да она може ненамерно угушити иновације. АИ је сложена технологија која се развија. Осим ако службеници који надгледају смернице за имплементацију, развој и обуку не разумеју како АИ функционише, могли би донети преурањене, неефикасне пресуде.

АИ програмери, технолошке компаније и лабораторије

Узимајући у обзир потенцијалне препреке које би могле настати због владиног надзора АИ, многи би радије имали технолошке компаније да предводе регулативу. Верују да би програмери требало да буду одговорни за технологију коју објављују. Саморегулација им омогућава да покрену иновације и да се фокусирају на ефикасно унапређење ових система.

Штавише, њихово дубинско разумевање АИ ће им помоћи да направе поштене, информисане смернице које дају приоритет безбедности корисника без угрожавања функционалности. Као и код сваке технологије, стручност у индустрији поједностављује праћење. Додељивање необучених службеника да регулишу технологије које једва разумеју може представљати више проблема него користи.

Узмимо за пример саслушање америчког Сената о Фацебоок-овим законима о приватности података. У овом извештају од Тхе Васхингтон Пост, видећете да су многи законодавци збуњени основним функцијама Фејсбука. Дакле, осим ако амерички Сенат не створи једино одељење техничких стручњака, они вероватно нису квалификовани да регулишу тако напредан систем који се стално мења као што је АИ.

Међутим, главни проблем са технолошким компанијама које саме себе регулишу је да би сумњиве корпорације могле да злоупотребе своју моћ. Без интервенције треће стране, они су у основи слободни да раде шта год желе.

Крајњи корисници

Неки страхују да ће влада и приватни субјекти злоупотребити системе вештачке интелигенције. Они нису сигурни да ће неколицини управних тела дати потпуну контролу над тако моћним технологијама, посебно зато што се АИ још увек развија. Они би се на крају могли борити око ауторитета радије него да раде на ефикасној регулацији.

Да би ублажили ове ризике, скептици верују да крајњи корисници заслужују слободу да користе АИ моделе како желе. Кажу да владини органи треба да се мешају само када корисници вештачке интелигенције крше закон. То је амбициозан циљ, али би се технички могао постићи ако би програмери АИ отвореног кода доминирали тржишним уделом.

Међутим, ова поставка ставља у неповољан положај појединце који нису упознати са технологијом. Корисници су одговорни за постављање ограничења у оквиру својих система—нажалост, немају сви ресурсе за то.

Такође је кратковидо уклонити власничке моделе са тржишта. Пролиферација од АИ модели отвореног кода имају неколико позитивних и негативних утицаја; за неке, недостаци су већи од предности.

Други субјекти који играју улогу у регулисању АИ

Иако ће главни ентитети предводити регулацију АИ, постоје тела која играју значајну улогу:

Медији играју кључну улогу у обликовању перцепције јавности о АИ. Они извештавају о развоју индустрије, деле нове алате, подижу свест о штетној употреби вештачке интелигенције и интервјуишу стручњаке о релевантним проблемима.

Већина чињеница које крајњи корисници знају о АИ у основи потичу из медија. Објављивање лажних података, било намерно или не, проузроковаће неповратну штету – не можете потценити колико се брзо шире дезинформације.

2. Невладине организације

Неколико непрофитних организација усредсређено је на заштиту приватности и грађанских слобода корисника вештачке интелигенције. Они образују јавност путем бесплатних ресурса, залажу се за нове политике, сарађују са владиним званичницима и износе занемарене бриге.

Једини проблем са НВО је што обично немају довољно ресурса. Пошто нису повезани са владом, ослањају се на приватне позиве и донације за свакодневне операције. Нажалост, само неколико организација добија адекватна средства.

3. Удружења технолошке индустрије

Удружења технолошке индустрије фокусирана на вештачку интелигенцију могу заступати права и интересе јавности. Као и невладине организације, оне раде са законодавцима, представљају заинтересоване појединце, залажу се за праведну политику и подижу свест о конкретним питањима.

Разлика је, међутим, у томе што они често имају везе са приватним компанијама. Њихови чланови и даље траже, али обично добијају довољно средстава од својих матичних организација све док дају резултате.

4. Академске институције

Иако АИ долази са неколико ризика, он је инхерентно неутралан. Све предрасуде, питања приватности, безбедносне грешке и потенцијалне активности сајбер криминала потичу од људи, тако да АИ сама по себи није нешто чега се треба плашити.

Али врло мало њих већ разуме како модерни модели вештачке интелигенције функционишу. Заблуде искривљују перцепцију људи о вештачкој интелигенцији, одржавајући неосноване страхове попут АИ преузимања човечанства или крађе послова.

Академске институције би могле да попуне ове образовне празнине путем доступних ресурса. Још увек нема превише научних радова о модерним ЛЛМ и НЛП системима. Јавност може одговорније користити вештачку интелигенцију и борити се против сајбер злочина ако у потпуности разуме како она функционише.

5. Агенције за провођење закона

Агенције за спровођење закона треба да очекују да ће се сусрести са више Сајбер напади са АИ-ом. Са пролиферацијом генеративних модела, лопови могу брзо да синтетишу гласове, генеришу дубоке лажне слике, скрежу личне информације (ПИИ), па чак и створити потпуно нове личности.

Већина агенција није опремљена да се бави овим злочинима. Требало би да инвестирају у нове системе и обуче своје службенике о савременим сајбер злочинима; у супротном ће имати проблема да ухвате ове лопове.

Будућност АИ регулативе

С обзиром на брзу природу вештачке интелигенције, мало је вероватно да ће је једно управљачко тело контролисати. Да, технолошки лидери ће имати више моћи од потрошача, али различити субјекти морају сарађивати како би управљали ризицима АИ без ометања напретка. Најбоље је поставити контролне мере сада док је вештачка општа интелигенција (АГИ) још увек далеки циљ.

Ипак, регулација АИ је једнако удаљена као и АГИ. У међувремену, корисници морају да поштују безбедносне праксе за борбу против претњи које покреће вештачка интелигенција. Добре навике као што је ограничавање људи са којима се повезујете на мрежи и обезбеђивање вашег дигиталног ПИИ-а већ иду далеко.