Најновије иновације око технологије засноване на вештачкој интелигенцији померају границе онога што смо некада мислили да је могуће са АИ. Међутим, пошто су цхатботови попут ЦхатГПТ-а и Бинг Цхат-а у неколико ствари готово једнако добри као људи, да ли је време да накратко притиснете кочнице?
Елон Муск и неколико истраживача АИ су међу 1.188 људи (у време писања) који тако мисле. У писму које је објавио непрофитни институт Футуре оф Лифе позива се на шестомесечну паузу у обуци АИ технологија бољих од ГПТ 4, али да ли је пауза заиста потребна?
О чему се ради о будућности живота отвореног писма?
Тхе писмо које је објавио Институт за будућност живота истиче да су лабораторије вештачке интелигенције „закључане у трци ван контроле“ да развијају и примењују више и моћније АИ моделе које нико, укључујући и њихове креаторе, не може „разумети, предвидети или поуздано контрола“.
Такође истиче да савремени системи вештачке интелигенције сада постају конкурентни људима у општим задацима и питањима да ли треба да развијемо „нељудске умове који би на крају могли надмашити, надмудрити, застарели и заменити нас“.
У писму се на крају позивају све лабораторије вештачке интелигенције да одмах паузирају обуку АИ система моћнијих од ГПТ-4 на најмање шест месеци. Пауза би такође требало да буде јавна и проверљива за све кључне актере. Такође се наводи да ако се таква пауза не може брзо применити, владе треба да се умешају како би привремено забраниле обуку за АИ моделе.
Када је пауза активна, од АИ лабораторија и независних стручњака се тражи да је користе за заједнички развој и имплементацију „заједнички скуп безбедносних протокола“ како би се осигурало да су системи који се придржавају ових правила „безбедни изнад разумног сумња“.
Ово писмо је потписало доста именованих личности, укључујући Елона Маска, Стива Вознијака и истраживаче и ауторе вештачке интелигенције. У ствари, листа потписника је тренутно паузирана због велике потражње.
Шта је Муск забринут за напредну АИ технологију и ОпенАИ?
Иако би потписивање писма Футуре оф Лифе могло указивати на то да је Муск забринут због сигурносних ризика који представљају такви напредни АИ системи, прави разлог би могао бити нешто друго.
Муск је са садашњим извршним директором Семом Алтманом суоснивао ОпенАИ још 2015. године као непрофитну организацију. Међутим, он се сукобио са Алтманом касније 2018. након што је схватио да није задовољан напретком компаније. Муск је наводно желео да преузме да би убрзао развој, али су Алтман и одбор ОпенАИ одбили ту идеју.
Муск је напустио ОпенАИ убрзо након тога и узео свој новац са собом прекршивши обећање да ће допринети 1 милијарду у финансирању и дати само 100 милиона пре него што је отишао. Ово је приморало ОпенАИ да убрзо након тога у марту 2019. постане приватна компанија како би прикупила средства за наставак истраживања.
Други разлог зашто је Муск отишао је тај што ће развој АИ у Тесли изазвати сукоб интереса у будућности. Очигледно је сазнање да су Тесли потребни напредни АИ системи за напајање Пуне функције самовожње. Откако је Муск напустио ОпенАИ, компанија је побегла са својим АИ моделима, лансирајући ЦхатГПТ који покреће ГПТ3.5 2022. и касније са ГПТ-4 у марту 2023.
Чињеница да Мусков АИ тим није ни близу ОпенАИ треба узети у обзир сваки пут када каже да модерни АИ модели могу представљати ризик. Такође није имао проблема увођење Тесла Фулл Селф-Дривинг бета верзије на јавним путевима, у суштини претварајући обичне Теслине возаче у бета тестере.
Ни ово се овде не завршава. Муск је такође био прилично критичан према ОпенАИ-ју на Твитеру, а Алтман је отишао толико далеко да је рекао да их напада док се недавно појављивао у подкасту „Он витх Кара Свисхер“.
У овом тренутку, чини се да Муск само користи писмо Футуре оф Лифе да заустави развој ОпенАИ-а и било које друге фирме која је сустигла ГПТ-4 како би својим компанијама дао шансу да сустигну заостатак уместо да се заправо брину о потенцијалним опасностима које ови модели вештачке интелигенције поза. Имајте на уму да се у писму такође тражи паузирање „обуке“ система вештачке интелигенције на шест месеци, што се релативно лако може заобићи да би се у међувремену наставио са њиховим развојем.
Да ли је пауза заиста потребна?
Потреба за паузом зависи од стања АИ модела у будућности. Писмо је дефинитивно помало драматичног тона и не ризикујемо да изгубимо контролу над нашом цивилизацијом због вештачке интелигенције, како то тако отворено каже. То је рекао, АИ технологије представљају неколико претњи.
С обзиром да ОпенАИ и друге АИ лабораторије могу да смисле боље безбедносне провере, пауза би донела више штете него користи. Међутим, предлог у писму о скупу заједничких безбедносних протокола који су „ригорозно ревидирани и надгледани од стране независних спољних стручњака“ звучи као добра идеја.
С обзиром да технолошки гиганти попут Гоогле-а и Мицрософт-а улажу милијарде у развој вештачке интелигенције и интеграцију у своје производе, мало је вероватно да ће писмо утицати на тренутни темпо развоја вештачке интелигенције.
АИ је ту да остане
Са технолошким гигантима који даље гурају интеграцију АИ у својим производима и улажу милијарде долара у истраживање и развој, АИ је ту да остане, без обзира на то шта опозиција каже.
Али није лоша идеја применити сигурносне мере како би се спречило да ове технологије заобиђу и потенцијално се претворе у алате за штету.