Способности вештачке интелигенције експоненцијално се шире, а интелигенција се сада користи у индустријама, од оглашавања до медицинских истраживања. Коришћење АИ у осетљивијим областима, попут софтвера за препознавање лица, алгоритми за запошљавање и пружање здравствене заштите, покренуло је расправу о пристрасности и правичности.

Пристрасност је добро истражени аспект људске психологије. Истраживање редовно разоткрива наше несвесне преференције и предрасуде и сада видимо како АИ одражава неке од ових пристрасности у њиховим алгоритмима.

Па, како вештачка интелигенција постаје пристрасна? И зашто је ово важно?

Како АИ постаје пристрасан?

Ради једноставности, у овом чланку ћемо се позвати машинско учење и дубоко учење алгоритми као АИ алгоритми или системи.

Истраживачи и програмери могу увести пристрасност у системе интелигенције на два начина.

Прво, когнитивне пристрасности истраживача могу се случајно уградити у алгоритме машинског учења. Когнитивне пристрасности су несвесне људске перцепције које могу утицати на то како људи доносе одлуке. Ово постаје значајно питање када се пристрасности односе на људе или групе људи и могу тим људима наштетити.

Ове пристрасности се могу увести директно, али случајно, или би истраживачи могли да обуче АИ на скуповима података на које је и сама утицала пристрасност. На пример, АИ за препознавање лица могао би се обучити помоћу скупа података који укључује само лица светло коже. У овом случају, АИ ће имати бољи учинак када се ради са светлополтим лицима него са тамним. Овај облик пристрасности према АИ познат је као негативно наслеђе.

Друго, пристрасности могу настати када се АИ обучава на непотпуним скуповима података. На пример, ако се АИ обучава на скупу података који укључује само информатичаре, то неће представљати целокупну популацију. То доводи до алгоритама који не дају тачна предвиђања.

Примери пристрасности АИ из стварног света

Било је више недавних, добро пријављених примера пристрасности према АИ илуструју опасност дозвољавања да се ове пристрасности увуку.

Приоритизација здравствене заштите са седиштем у САД-у

У 2019. години направљен је алгоритам машинског учења који помаже болницама и осигуравајућим компанијама да утврде који ће пацијенти имати највише користи од одређених здравствених програма. На основу базе података са око 200 милиона људи, алгоритам је фаворизовао беле пацијенте у односу на црнце.

Утврђено је да је то било због погрешне претпоставке у алгоритму у погледу различитих трошкова здравствене заштите између црно-белих људи, а пристрасност је на крају смањена за 80%.

ЦОМПАС

Профил за корективно управљање преступницима за алтернативне санкције, или ЦОМПАС, био је алгоритам АИ дизајниран да предвиди да ли ће одређени људи поново увредити. Алгоритам је створио двоструко лажне резултате за црне преступнике у поређењу са белим преступницима. У овом случају, и скуп података и модел су били мањкави, уводећи тешку пристрасност.

Амазон

Алгоритам запошљавања који Амазон користи за утврђивање подобности кандидата утврђен је 2015. године да би фаворизовао мушкарце у односу на жене. То је било зато што је скуп података готово искључиво садржавао мушкарце и њихове биографије, јер су већина запослених у Амазону мушкарци.

Како зауставити пристрасност АИ

АИ већ револуционише наш начин рада свака индустрија. Поседовање пристрасних система који контролишу осетљиве процесе доношења одлука је мање него пожељно. У најбољем случају смањује квалитет истраживања заснованог на АИ. У најгорем случају, активно штети мањинским групама.

Постоје примери АИ алгоритама који су већ навикли помоћ људском одлучивању смањењем утицаја људских когнитивних пристрасности. Због начина на који су алгоритми машинског учења обучени, они могу бити тачнији и мање пристрасни од људи у истом положају, што резултира праведнијим одлучивањем.

Али, као што смо показали, и обрнуто је тачно. Ризици који омогућавају да се уметничка интелигенција скува и појача људске предрасуде могу надмашити неке од могућих користи.

На крају дана, АИ је толико добар колико и подаци са којима је обучен. Развој непристрасних алгоритама захтева опсежну и темељну претходну анализу скупова података, осигуравајући да подаци не садрже имплицитне пристраности. Ово је теже него што звучи, јер је толико наших пристрасности несвесно и често их је тешко препознати.

Изазови у спречавању пристрасности према АИ

У развоју система уметне интелигенције, сваки корак мора бити процењен на потенцијал за уграђивање пристрасности у алгоритам. Један од главних фактора у спречавању пристрасности је осигуравање да се правичност, а не пристрасност, „укуха“ у алгоритам.

Дефинисање правичности

Праведност је концепт који је релативно тешко дефинисати. У ствари, то је дебата која никада није постигла консензус. Да би ствари биле још теже, при развоју система интелигенције, концепт правичности мора бити дефинисан математички.

На пример, у смислу Амазон-овог алгоритма за запошљавање, да ли би поштење изгледало као савршено подела мушких и женских радника у односу 50/50? Или другачији однос?

Одређивање функције

Први корак у развоју АИ је тачно утврдити шта ће постићи. Ако се користи пример ЦОМПАС, алгоритам би предвидео вероватноћу поновног извршења кривичних дела. Затим треба одредити јасне уносе података како би алгоритам могао да функционише. Ово може захтевати дефинисање важних променљивих, као што су број претходних кривичних дела или врста почињених кривичних дела.

Правилно дефинисање ових променљивих је тежак, али важан корак у обезбеђивању правичности алгоритма.

Израда скупа података

Као што смо покрили, главни узрок пристрасности према АИ су непотпуни, нерепрезентативни или пристрасни подаци. Као и случај АИ препознавања лица, и улазне податке треба темељно проверити на пристрасност, прикладност и комплетност пре процеса машинског учења.

Избор атрибута

У алгоритмима се одређени атрибути могу узети у обзир или не. Атрибути могу да укључују пол, расу или образовање - у основи све што може бити важно за задатак алгоритма. У зависности од изабраних атрибута, на предвиђање тачности и пристрасност алгоритма могу се озбиљно утицати. Проблем је што је врло тешко измерити пристрасност алгоритма.

АИ пристрасност није овде да би остала

АИ пристраност се јавља када алгоритми дају пристрасна или нетачна предвиђања због пристрасних улаза. Појављује се када се пристрасни или непотпуни подаци одражавају или појачавају током развоја и обуке алгоритма.

Добра вест је да ћемо са множењем средстава за истраживање АИ вероватно видети нове методе смањења, па чак и уклањања пристрасности у погледу АИ.

Емаил
5 уобичајених митова о вештачкој интелигенцији који нису истинити

Поставимо запис директно на неке уобичајене нетачности које окружују АИ.

Прочитајте следеће

Повезане теме
  • Објашњена технологија
  • Вештачка интелигенција
  • Машинско учење
О аутору
Јаке Харфиелд (Објављено 6 чланака)

Јаке Харфиелд је слободни писац из Перта у Аустралији. Кад не пише, обично је вани у жбуњу фотографишући локалне дивље животиње. Можете га посетити на ввв.јакехарфиелд.цом

Више од Јакеа Харфиелда

Претплатите се на наш билтен

Придружите се нашем билтену за техничке савете, прегледе, бесплатне е-књиге и ексклузивне понуде!

Још један корак…!

Молимо потврдите своју адресу е-поште у е-поруци коју смо вам управо послали.

.