Идеја да се АИ технологије морају регулисати је уобичајено осећање. Већина влада, програмери АИ производа, па чак и обични корисници АИ производа се слажу око тога. Нажалост, најбољи начин да се регулише ово брзо растуће поље је нерешена загонетка.
Ако се не контролишу, АИ технологије могу негативно да поремете наш начин живота и угрозе наше постојање. Али како владе могу да се крећу кроз лавиринт изазова који долази са овом области која се брзо развија?
1. Прописи о приватности и заштити података
Једна од примарних брига код АИ технологија је приватност и безбедност података. Системи вештачке интелигенције су машине које гладују података. Потребни су им подаци за рад, више података да би били ефикасни и још више података за побољшање. Иако ово није проблем, начин на који се ови подаци добијају, њихова природа и начин на који се обрађују и чувају једна је од највећих тачака за разговор око прописа о вештачкој интелигенцији.
Узимајући ово у обзир, логичан пут који треба ићи је да се успоставе строги прописи о приватности података који регулишу податке прикупљање, складиштење и обрада, као и права појединаца – чији се подаци користе – на приступ и контролу њихове податке. Питања која би ови прописи вероватно решили су:
- Које врсте података могу да се прикупљају?
- Да ли неке приватне податке треба сматрати табуом у АИ?
- Како компаније са вештачком интелигенцијом треба да поступају са осетљивим личним подацима, као што су здравствени картони или биометријске информације?
- Да ли би од компанија са вештачком интелигенцијом требало да се захтева да примене механизме да појединци лако захтевају брисање или исправку својих личних података?
- Које су последице за АИ компаније које не поштују прописе о приватности података? Како треба пратити усклађеност и како осигурати примену?
- Можда најважније, који стандард компаније са вештачком интелигенцијом треба да примене да би обезбедиле сигурност осетљиве природе информација које поседују?
Ова питања и неколико других чинили су суштину зашто је ЦхатГПТ привремено забрањен у Италији. Уколико се не позабаве овим проблемима, простор вештачке интелигенције могао би бити дивљи запад за приватност података, а забрана Италије могла би се показати као шаблон за забране других земаља широм света.
2. Развој етичког АИ оквира
АИ компаније се често хвале својом посвећеношћу етичким смерницама у развоју АИ система. Барем на папиру, сви су они заговорници одговорног развоја вештачке интелигенције. У медијима, Гоогле руководиоци су нагласили како компанија озбиљно схвата безбедност и етику вештачке интелигенције. Слично томе, „Безбедна и етичка вештачка интелигенција“ је мантра за генералног директора ОпенАИ-а, Сема Алтмана. Ово је прилично похвално.
Али ко доноси правила? Ко одлучује које су етичке смернице АИ довољно добре? Ко одлучује како изгледа безбедан развој вештачке интелигенције? У овом тренутку, чини се да свака компанија са вештачком интелигенцијом има сопствени обрт у одговорном и етичком развоју вештачке интелигенције. ОпенАИ, Антхропиц, Гоогле, Мета, Мицрософт, сви. Опасно је једноставно ослањање на АИ компаније да ураде праву ствар.
Тхе последице непровереног АИ простора могу бити катастрофалне. Омогућавање појединачним компанијама да одлуче које етичке смернице да усвоје, а које да одбаце, слично је ходању у сну у апокалипси вештачке интелигенције. Раствор? Јасан етички оквир вештачке интелигенције који обезбеђује:
- Системи вештачке интелигенције не постављају неправедно у неповољнији положај нити дискриминишу појединце или одређене групе на основу расе, пола или социоекономског статуса.
- Системи вештачке интелигенције су безбедни, безбедни и поуздани и минимизирају ризик од нежељених последица или штетног понашања.
- Системи вештачке интелигенције су изграђени имајући на уму шири друштвени утицај АИ технологија.
- Да људи задрже коначну контролу над системима вештачке интелигенције и транспарентно доношење одлука.
- Системи вештачке интелигенције су намерно ограничени на начине који су корисни за људе.
3. Наменска регулаторна агенција
Због свог потенцијалног утицаја на људску цивилизацију, дискусија о безбедности вештачке интелигенције обично се повлачи паралелно са ризиком од здравствене кризе или нуклеарне катастрофе. За избегавање потенцијалних нуклеарних инцидената потребна је посебна агенција као што је НРЦ (Нуклеарна регулаторна комисија) САД. Избегавање ризика од опасних здравствених криза захтева успостављање ФДА (Управа за храну и лекове)
Слично томе, да би се осигурало да ствари не пођу по злу у простору вештачке интелигенције, неопходна је наменска агенција сродна ФДА и НРЦ-у јер АИ наставља да агресивно продире у све области нашег живота. Нажалост, питање регулације вештачке интелигенције у земљи је тешко. Рад било које наменске регулаторне агенције ће вероватно бити мучно тежак без прекограничне сарадње. Баш као што америчка НРЦ (Нуклеарна регулаторна комисија) треба да ради руку под руку са Међународном атомском енергијом Агенција (ИАЕА) да би била у свом најбољем издању, свакој наменској регулаторној агенцији за вештачку интелигенцију у земљи такође би био потребан међународни аналог.
Таква агенција би била одговорна за следеће:
- Развој АИ прописа
- Обезбеђивање усклађености и спровођења
- Надгледање процеса етичке ревизије пројеката АИ
- Сарадња и међудржавна сарадња у области безбедности и етике вештачке интелигенције
4. Рјешавање проблема ауторских права и интелектуалне својине
Постојећи закони о ауторским правима и правни оквири руше се пред вештачком интелигенцијом. Начин на који су АИ алати, посебно генеративни АИ алати, дизајнирани чини да изгледају као јавно одобрена машина за кршење ауторских права са којом не можете ништа да урадите.
Како? Па, многи данашњи системи вештачке интелигенције су обучени користећи материјале заштићене ауторским правима. Знате, чланци заштићени ауторским правима, песме заштићене ауторским правима, слике заштићене ауторским правима итд. Тако алати воле ЦхатГПТ, Бинг АИ и Гоогле Бард могу да раде сјајне ствари које раде.
Иако ови системи очигледно користе предност интелектуалне својине људи, начин на који то раде ови системи вештачке интелигенције се не разликује од човека који чита књигу заштићену ауторским правима, слуша песме заштићене ауторским правима или гледа заштићене ауторским правима слике.
Можете читати књигу заштићену ауторским правима, научити нове чињенице из ње и користити те чињенице као основу за своју књигу. Такође можете да слушате песму заштићену ауторским правима за инспирацију да креирате сопствену музику. У оба случаја сте користили материјале заштићене ауторским правима, али то не мора да значи да дериватни производ крши ауторска права оригинала.
Иако је ово логично објашњење за објашњавање нереда који АИ прави од закона о ауторским правима, оно и даље штети власницима ауторских права и интелектуалне својине. С обзиром на ово, прописи су неопходни да:
- Јасно дефинисати одговорност и одговорности свих страна укључених у животни циклус система вештачке интелигенције. Ово укључује разјашњавање улога сваке стране, од АИ програмера до крајњих корисника, како би се осигурало да је одговорна стране се сматрају одговорним за било какву повреду ауторских права или повреде интелектуалне својине које је починила АИ система.
- Ојачати постојеће оквире за ауторска права и можда увести законе о ауторским правима специфичне за вештачку интелигенцију.
- Да би се обезбедиле иновације у простору вештачке интелигенције, истовремено чувајући права оригиналних креатора, АИ прописи треба да редефинишу концепте поштеног коришћења и трансформативног рада у контексту Садржај генерисан вештачком интелигенцијом. Потребне су јасније дефиниције и смернице како би се осигурало да простор вештачке интелигенције може да настави да се побољшава уз поштовање граница ауторских права. Неопходно је успоставити равнотежу између иновација и очувања права креатора садржаја.
- Јасни путеви за сарадњу са носиоцима права. Ако ће системи вештачке интелигенције ионако користити интелектуалну својину људи, требало би да постоје јасни путеви или оквири за програмере вештачке интелигенције и власницима права да сарађују, посебно у погледу финансијских компензација, ако је дериватни рад такве интелектуалне својине комерцијализована.
Регулација вештачке интелигенције је очајнички потребна поправка
Док се вештачка интелигенција појавила као обећавајуће решење за многе наше друштвене проблеме, сама вештачка интелигенција брзо постаје проблем који треба хитно решење. Време је да направите корак уназад, размислите и направите неопходне поправке како бисте осигурали позитиван утицај вештачке интелигенције на друштво. Очајнички нам је потребна хитна рекалибрација нашег приступа изградњи и коришћењу АИ система.