АИ цхат-ботови могу халуцинирати, дајући поуздано нетачне одговоре — што хакери могу искористити. Ево како хакери користе халуцинације.
АИ модела великог језика су несавршени и понекад генеришу лажне информације. Ови случајеви, звани халуцинације, могу представљати сајбер претњу за предузећа и индивидуалне АИ ентузијасте.
На срећу, можете повећати одбрану од АИ халуцинација уз повећану свест и здраво друго погађање.
Зашто АИ халуцинира?
Не постоји консензус о томе зашто АИ модели халуцинирају, иако постоји неколико вероватних нагађања.
АИ се обучава из огромних скупова података, који често садрже недостатке као што су празнине у размишљању, варијација у значају садржаја или штетне предрасуде. Било која обука из ових непотпуних или неадекватних скупова података могла би да буде корен халуцинација, чак и ако су касније итерације скупа података добиле савет од научника података.
Током времена, научници података могу учинити информације тачнијим и унети додатно знање како би попунили упражњена места и минимизирали потенцијал халуцинације. Надгледници могу погрешно означити податке. Програмски код може имати грешке. Поправљање ових ставки је од суштинског значаја јер АИ модели напредују на основу алгоритама машинског учења.
Ови алгоритми користе податке за доношење одлука. Проширење овога је неуронска мрежа вештачке интелигенције, која ствара нове одлуке од искуства машинског учења до личе на оригиналност људских умова тачније. Ове мреже садрже трансформаторе, који анализирају односе између удаљених тачака података. Када трансформатори крену по злу, могу се појавити халуцинације.
Како АИ халуцинације пружају могућности за хакере
Нажалост, није опште познато да АИ халуцинира, а АИ ће звучати самоуверено чак и када је потпуно погрешно. Све ово доприноси томе да корисници буду самозадовољнији и да имају поверења у вештачку интелигенцију, а актери претњи се ослањају на овакво понашање корисника да би их навели да преузму или покрену своје нападе.
На пример, АИ модел може халуцинирати лажну библиотеку кодова и препоручити корисницима да преузму ту библиотеку. Вероватно је да ће модел наставити да препоручује ову исту халуцинирану библиотеку многим корисницима који постављају слично питање. Ако хакери открију ову халуцинацију, могу да направе праву верзију замишљене библиотеке — али пуну опасног кода и малвера. Сада, када АИ настави да препоручује библиотеку кодова, несвесни корисници ће преузети код хакера.
Преношење штетног кода и програма коришћењем предности АИ халуцинација није изненађујући следећи корак за актере претњи. Хакери не стварају нужно безброј нових сајбер претњи – они само траже нове начине да их испоруче без сумње. АИ халуцинације зависе од исте људске наивности кликања на линкове е-поште (због чега би требало користите алатке за проверу линкова да бисте верификовали УРЛ адресе).
Хакери би то такође могли подићи на виши ниво. Ако тражите помоћ за кодирање и преузмете лажни, злонамерни код, актер претње би такође могао да учини код заиста функционалним, са штетним програмом који ради у позадини. Само зато што функционише онако како сте очекивали, не значи да није опасно.
Недостатак образовања може да вас подстакне да преузмете препоруке генерисане вештачком интелигенцијом због понашања аутопилота на мрежи. Сваки сектор је под културним притиском да усвоји АИ у својој пословној пракси. Безбројне организације и индустрије удаљене од технологије играју се са АИ алатима са мало искуства и још оскудијом сајбер-безбедношћу само да би остали конкурентни.
Како се заштитити од наоружаних АИ халуцинација
Напредак је на помолу. Стварање злонамерног софтвера помоћу генеративне вештачке интелигенције било је лако пре него што су компаније прилагодиле скупове података и одредбе и услове како би спречиле неетичке генерације. Познавајући друштвене, техничке и личне слабости које можете имати против опасних АИ халуцинација, који су неки начини да останете безбедни?
Свако у индустрији може да ради на усавршавању технологије неуронских мрежа и верификацији библиотеке. Мора постојати провера и равнотежа пре него што одговори стигну до крајњих корисника. Упркос томе што је ово неопходан напредак у индустрији, ви такође имате улогу у заштити себе и других од генеративних претњи вештачке интелигенције.
Просечни корисници може да вежба уочавање АИ халуцинација са овим стратегијама:
- Проналажење правописних и граматичких грешака.
- Видети када контекст упита није у складу са контекстом одговора.
- Признање када се слике засноване на компјутерском виду не поклапају са начином на који би људске очи виделе концепт.
Увек будите опрезни када преузимате садржај са интернета, чак и када га препоручује вештачка интелигенција. Ако АИ препоручује преузимање кода, немојте то радити слепо; проверите све рецензије да бисте били сигурни да је код легитиман и видите да ли можете пронаћи информације о креатору.
Најбоља отпорност против напада заснованих на АИ халуцинацијама је образовање. Говорећи о својим искуствима и читању како су други изазвали злонамерне халуцинације, било случајно или намерно тестирање, од непроцењиве је вредности у навигацији АИ у будућности.
Унапређење АИ сајбер безбедности
Морате бити опрезни шта тражите када разговарате са АИ. Ограничите потенцијал опасних исхода тако што ћете бити што конкретнији и преиспитивати све што се појави на екрану. Тестирајте код у сигурним окружењима и проверите друге наизглед поуздане информације. Поред тога, сарадња са другима, дискусија о вашим искуствима и поједностављивање жаргона о АИ халуцинације и претње сајбер безбедности могу помоћи масама да буду будније и отпорније на хакери.