Генеративна АИ је одлична, али увек представља своје информације са апсолутним ауторитетом. Што је одлично осим ако не халуцинира истину.

Халуцинација вештачке интелигенције (АИ) звучи збуњујуће. Вероватно мислите: "Зар халуцинација није људски феномен?" Па, да, некада је то био искључиво човек феномен све док АИ није почео да показује људске карактеристике као што су препознавање лица, самоучење и говор препознавање.

Нажалост, АИ је попримила неке негативне атрибуте, укључујући халуцинације. Дакле, да ли је АИ халуцинација слична халуцинацији коју људи доживљавају?

Шта је АИ халуцинација?

Халуцинација вештачке интелигенције настаје када АИ модел генерише излазе другачије од очекиваних. Имајте на уму да су неки модели вештачке интелигенције обучени да намерно генеришу излазе који нису повезани са било којим уносом (подацима) из стварног света.

На пример, врхунски АИ генератори текста у уметност, као што је ДАЛЛ-Е 2, може креативно да генерише нове слике које можемо означити као „халуцинације“ пошто нису засноване на подацима из стварног света.

instagram viewer

АИ халуцинације у великим моделима обраде језика

Хајде да размотримо како би халуцинација вештачке интелигенције изгледала у великом моделу обраде језика као што је ЦхатГПТ. ЦхатГПТ халуцинација би резултирала тиме да вам бот даје нетачну чињеницу са неком тврдњом, тако да бисте те чињенице природно схватили као истину.

Једноставно речено, то су измишљене изјаве вештачки интелигентног цхатбот-а. Ево примера:

На даљи упит, ЦхатГПТ се појавио са овим:

АИ халуцинације у компјутерском виду

Хајде да размотримо још једно поље АИ које може доживети АИ халуцинације: Цомпутер Висион. Квиз у наставку приказује монтажу 4к4 са два ентитета која толико личе. Слике су мешавина чипса и листова кромпира са роштиља.

Изазов је одабрати чипс без ударања у лишће у монтажи. Ова слика може изгледати незгодно за рачунар и можда неће моћи да разликује чипс од роштиља и лишће.

Ево још једне монтаже са мешавином слика пудлице и свињског конца. Компјутер највероватније не би могао да их разликује, па стога меша слике.

Зашто се јавља АИ халуцинација?

Халуцинације са вештачком интелигенцијом могу настати због супротстављених примера—улазних података који преваре АИ апликацију да их погрешно класификује. На пример, када обучавају АИ апликације, програмери користе податке (слику, текст или друге); ако су подаци промењени или изобличени, апликација другачије тумачи унос, дајући погрешан излаз.

Насупрот томе, човек и даље може препознати и тачно идентификовати податке упркос изобличењима. Ово можемо означити као здрав разум — људски атрибут који АИ још не поседује. Погледајте како се вештачка интелигенција заварава супарничким примерима у овом видеу:

Што се тиче великих модела заснованих на језику као нпр ЦхатГПТ и његове алтернативе, халуцинације могу настати због нетачног декодирања са трансформатора (модел машинског учења).

У АИ, трансформатор је модел дубоког учења који користи самопажњу (семантички односи између речи у реченицу) да произведе текст сличан ономе што би човек написао користећи кодер-декодер (улаз-излаз) низ.

Дакле, трансформатори, полу-надгледани модел машинског учења, могу да генеришу ново тело текста (излаз) из великог корпуса текстуалних података који се користе у његовој обуци (улаз). То чини предвиђањем следеће речи у низу на основу претходних речи.

Што се тиче халуцинације, ако је језички модел обучен на недовољним и нетачним подацима и ресурсима, очекује се да би резултат био измишљен и нетачан. Језички модел може да генерише причу или наратив без логичких недоследности или нејасних веза.

У примеру испод, од ЦхатГПТ-а је затражено да наведе реч сличну „револт“ и почиње са „б“. Ево његовог одговора:

Даљњим испитивањем, наставило је да даје погрешне одговоре, са високим нивоом самопоуздања.

Зашто онда ЦхатГПТ не може дати тачан одговор на ове упите?

Могуће је да језички модел није опремљен да рукује прилично сложеним упитима као што су ове или оне не може тачно да протумачи упит, игноришући упит о давању сличне речи са одређеним алфабет.

Како уочити АИ халуцинације?

Сада је очигледно да АИ апликације имају потенцијал да халуцинирају—генеришу одговоре на други начин од очекиваног резултата (чињеница или истина) без икаквих злонамерних намера. А уочавање и препознавање АИ халуцинација је на корисницима таквих апликација.

Ево неколико начина да уочите АИ халуцинације док користите уобичајене АИ апликације:

1. Велики модели за обраду језика

Иако ретко, ако приметите граматичку грешку у садржају који производи велики модел обраде, као што је ЦхатГПТ, то би требало да подигне обрву и наведе вас да посумњате на халуцинацију. Слично томе, када текст генерисан садржај не звучи логично, не корелира са датим контекстом или не одговара улазним подацима, требало би да посумњате на халуцинацију.

Коришћење људског расуђивања или здравог разума може помоћи у откривању халуцинација, јер људи могу лако да идентификују када текст нема смисла или прати стварност.

2. Цомпутер Висион

Као грана вештачке интелигенције, машинског учења и рачунарске науке, компјутерски вид омогућава рачунарима да препознају и обрађују слике попут људских очију. Користећи конволуционе неуронске мреже, ослањају се на невероватну количину визуелних података који се користе у њиховој обуци.

Одступање од образаца визуелних података који се користе у тренингу резултираће халуцинацијама. На пример, ако рачунар није обучен са сликама тениске лоптице, могао би да је идентификује као зелену наранџасту. Или ако компјутер препозна коња поред људске статуе као коња поред правог човека, онда је дошло до АИ халуцинације.

Дакле, да бисте уочили халуцинацију компјутерског вида, упоредите добијене резултате са оним што се очекује од [нормалног] човека.

3. Самовозећи аутомобили

Кредит за слику: Форд

Захваљујући вештачкој интелигенцији, аутомобили који се сами возе постепено се инфилтрирају на тржиште аутомобила. Пионири попут Теслиног аутопилота и Фордовог БлуеЦруисеа заговарају сцену самовозећих аутомобила. Можете проверити како и шта Тесла аутопилот види да стекнете мало разумевања о томе како АИ покреће самовозеће аутомобиле.

Ако поседујете један од таквих аутомобила, желели бисте да знате да ли ваш АИ аутомобил халуцинира. Један знак ће бити ако се чини да ваше возило одступа од уобичајених образаца понашања током вожње. На пример, ако возило нагло кочи или скрене без икаквог очигледног разлога, ваше возило са вештачком интелигенцијом можда халуцинира.

АИ системи такође могу халуцинирати

Људи и АИ модели различито доживљавају халуцинације. Када је у питању АИ, халуцинације се односе на погрешне резултате који су миљама удаљени од стварности или немају смисла у контексту датог упита. На пример, АИ цхатбот може дати граматички или логички нетачан одговор или погрешно идентификовати објекат због буке или других структуралних фактора.

АИ халуцинације не произилазе из свесног или подсвесног ума, као што бисте приметили код људи. Уместо тога, то је резултат неадекватности или недовољности података који се користе у обуци и програмирању АИ система.