Дискусије о осећају вештачке интелигенције нису ништа ново, али вести о Гоогле-овом АИ ЛаМДА су подстакле пламен. Након што је инжењер тврдио да је бот свестан, чак и да има душу, поново су се појавила нека позната питања.

Може ли АИ као што је ЛаМДА заправо бити разуман или самосвестан, и ако јесте, како то можете рећи? Је ли то битно?

Шта је ЛаМДА?

ЛаМДА, скраћеница за језички модел за апликације за дијалог, први пут се појавила 2021. на Гоогле-овој конференцији за програмере. Напредни АИ систем би требало да помогне у изградњи других, мањих цхат робота. Када га је Гоогле први пут представио, најавио је планове да га интегрише у све, помажући услугама као што су Гоогле Ассистант и Сеарцх да се осећају људскије, или барем природније.

Када је Гоогле инжењер Блаке Лемоине разговарао са ЛаМДА-ом да види да ли користи говор мржње, оставио је другачији утисак. Лемоине је тврдио да је ЛаМДА разуман, и да није знао да је то бот, помислио би да је то осмогодишње дете.

Након разговора са ЛаМДА, Лемоине је покушао да докаже да је свестан и одбрани оно што је веровао да су њена законска права. Као одговор, Гоогле је ставио Лемоина на плаћено административно одсуство због кршења уговора о поверљивости.

instagram viewer

Да ли је ЛаМДА заиста разуман?

Дакле, да ли је ЛаМДА заправо разумна? Већина стручњака који су се бавили овим питањем су скептични. ЛаМДА је веома напредна АИ платформа за ћаскање која анализира трилионе речи са интернета, тако да је вешта да звучи као права особа.

Ово није први пут да је једна од Гоогле-ових вештачких интелигенција преварила људе да мисле да је људска. У 2018, Гоогле је демонстрирао свој Дуплек АИ тако што је позвао ресторан да резервише сто. Чинило се да ни у једном тренутку запослени са друге стране није сумњао да разговарају са особом.

Осећај је тешко дефинисати, иако већина људи сумња да је АИ достигао ту тачку ипак. Међутим, важно питање можда није да ли је ЛаМДА заиста разуман, већ каква је разлика ако може преварити људе да мисле да јесте.

Могуће правне импликације ЛаМДА

Ситуација са ЛаМДА отвара многа правна и етичка питања. Прво, неки људи се могу питати да ли је Гоогле био у праву што је ставио Лемоинеа на одсуство јер је говорио о томе.

Према члану 740 њујоршког закона о раду, заштита узбуњивача штити запослене од таквих последице ако верују да пракса њиховог послодавца крши закон или представља значајан ризик за јавност сигурност. ЛаМДА-ин наводни осећај не испуњава у потпуности тај законски захтев, али да ли треба?

Давање права на вештачку интелигенцију је незгодна тема. Док АИ може стварају ствари и изгледају као људи, можете наићи на неке компликоване ситуације ако ове машине имају законску заштиту. Законска права се заснивају на наградама и казнама које не утичу на АИ, што компликује правду.

Ако самовозећи аутомобил удари пешака, да ли је АИ крива ако га закон третира као човека? А ако је тако, то не даје стриктно правду жртви јер не можете технички да казните АИ на исти начин на који бисте то учинили човека.

Још једно питање које се намеће са ЛаМДА и сличним АИ цхатботовима је њихова безбедност. Ако ови ботови изгледају убедљиво стварни, људи би им могли више веровати и бити спремни да им дају осетљивије информације. То отвара врата низу забринутости за приватност и безбедност ако ова технологија падне у погрешне руке.

АИ уводи компликована етичка питања

АИ као што је ЛаМДА постаје све софистициранији и реалнији. Како овај тренд расте, компаније и законодавци би требало да преиспитају како третирају АИ и како ове одлуке могу утицати на правду и безбедност.

Како сада стоји, Гоогле-ов ЛаМДА АИ можда није разуман, али је довољно добар да наведе људе да мисле да јесте, што би требало да изазове неке аларме.