Било да се ради о лошим подацима или лошим корисницима, вештачка интелигенција створена машинским учењем може на крају да направи озбиљне грешке.
Машинско учење је одличан начин за стварање вештачке интелигенције која је моћна и прилагођава се подацима о обуци. Али понекад ти подаци могу изазвати проблеме. У другим случајевима, проблем је начин на који људи користе ове АИ алате.
Ево погледа на неколико инцидената високог профила у којима је машинско учење резултирало проблематичним исходима.
1. Грешке у резултатима претраге Гоогле слика
Гоогле претрага је учинила навигацију вебом много лакшом. Алгоритам мотора узима у обзир разне ствари приликом добијања резултата. Али алгоритам такође учи из корисничког саобраћаја, што може изазвати проблеме са квалитетом резултата претраге.
Нигде ово није очигледније него у резултатима слика. Пошто је већа вероватноћа да ће странице које остварују велики саобраћај имати своје слике приказане, приче које привлаче велики број корисника, укључујући мамац за кликове, могу на крају да имају приоритет.
На пример, резултати претраге слика за „кампове сквотера у Јужној Африци“ изазвали су контроверзу када је откривено да се у њима углавном налазе бели Јужноафриканци. Ово је упркос статистикама које показују да су огромна већина оних који живе у неформалним становима црни Јужноафриканци.
Фактори који се користе у Гоогле-овом алгоритму такође значе да корисници интернета могу да манипулишу резултатима. На пример, кампања корисника утицала је на резултате Гоогле претраге слика до те мере да је претрага термина „идиот“ показивала слике бившег председника САД Доналда Трампа у одређеном периоду.
2. Мицрософт Бот Таи се претворио у нацисту
Цхатбот-ови са АИ-ом су изузетно популарни, посебно они које покрећу велики језички модели као што је ЦхатГПТ. ЦхатГПТ има неколико проблема, али су његови креатори учили и на грешкама других компанија.
Један од најистакнутијих инцидената четботова који су пошли наопако био је покушај Мицрософта да покрене свог цхатбот Таи.
Теј је опонашала језичке обрасце тинејџерке и научила кроз њене интеракције са другим корисницима Твитера. Међутим, постала је један од најозлоглашенијих грешака вештачке интелигенције када је почела да дели нацистичке изјаве и расне увреде. Испоставило се да су тролови користили машинско учење АИ против њега, преплављујући га интеракцијама пуним нетрпељивости.
Недуго затим, Мицрософт је заувек искључио Теја ван мреже.
3. Проблеми са АИ препознавањем лица
АИ за препознавање лица често долази на насловне стране из свих погрешних разлога, као што су приче о препознавању лица и забринутости за приватност. Али ова АИ има проблематичну историју када покушава да препозна људе у боји.
2015. године, корисници су открили да Гоогле Пхотос неке црне људе категорише као гориле. Истраживање АЦЛУ-а је 2018. показало да је Амазонов софтвер за идентификацију лица Рекогнитион идентификовао 28 чланови америчког Конгреса као осумњичени полицајци, са лажним позитивним резултатима који несразмерно утичу на људе од боја.
Други инцидент укључивао је Апплеов Фаце ИД софтвер који је погрешно идентификовао две различите Кинескиње као исту особу. Као резултат тога, колега власника иПхоне Кс-а могао би откључати телефон.
Као пример екстремних последица, вештачка интелигенција за препознавање лица довела је до погрешних хапшења неколико људи. Виред пријавио три таква случаја.
У међувремену, компјутерски научник Џој Буоламвини се присетила да је често морала да носи белу маску док ради на технологији препознавања лица како би софтвер могао да је препозна. Да би решили овакве проблеме, Буоламвини и други ИТ професионалци скрећу пажњу на питање пристрасности вештачке интелигенције и потребу за инклузивнијим скуповима података.
4. Дубоки фајкови који се користе за обмане
Док су људи дуго користили Пхотосхоп за креирање лажних слика, машинско учење ово подиже на нови ниво. Деепфакес користе АИ дубоког учења за креирање лажних слика и видео записа. Софтвер као што је ФацеАпп вам омогућава да замените лицем субјекте из једног видеа у други.
Али многи људи искоришћавају софтвер за разне злонамерне сврхе, укључујући наметање славних лица у видео снимке за одрасле или генерисање лажних видео снимака. У међувремену, корисници интернета су помогли да се побољша технологија како би било све теже разликовати праве видео снимке од лажних. Као резултат, ово чини ову врсту вештачке интелигенције веома моћном у смислу ширења лажних вести и превара.
Да би показали снагу технологије, директор Џордан Пил и извршни директор БуззФеед-а Јонах Перетти креирали су деепфаке видео који приказује оно што изгледа као да бивши амерички председник Барак Обама даје ПСА о моћи деепфакес.
Снагу лажних слика убрзали су генератори слика које покреће АИ. Испоставило се да су вирусни постови из 2023. који приказују хапшење Доналда Трампа и католичког папу у пуфер јакни резултат генеративне вештачке интелигенције.
Постоје савете које можете да пратите да бисте уочили слику генерисану вештачком интелигенцијом, али технологија постаје све софистициранија.
5. Запослени кажу да је Амазон АИ одлучио да запошљава мушкарце боље
У октобру 2018. Реутерс известио је да је Амазон морао да укине алатку за запошљавање након што је софтверска вештачка интелигенција одлучила да мушки кандидати имају предност.
Запослени који су желели да остану анонимни јавили су се да Ројтерсу кажу о свом раду на пројекту. Програмери су желели да АИ идентификује најбоље кандидате за посао на основу њихових биографија. Међутим, људи укључени у пројекат убрзо су приметили да АИ кажњава кандидаткиње. Објаснили су да је вештачка интелигенција користила биографије из прошле деценије, од којих је већина била од мушкараца, као скуп података за обуку.
Као резултат тога, АИ је почела да филтрира биографије на основу кључне речи „жене“. Кључна реч се појавила у животопису под активностима попут „капитен женског шаховског клуба“. Док су програмери изменили АИ како би спречили кажњавање женских биографија, Амазон је на крају одустао од пројекта.
6. Јаилброкен Цхатботс
Док новији цхат ботови имају ограничења која их спречавају да дају одговоре који су у супротности са њиховим условима услуге, корисници проналазе начине да разбију алате за обезбеђивање забрањеног садржаја.
Године 2023., истраживач безбедности Форцепоинт-а Аарон Мулгрев успео је да креира малвер нултог дана користећи ЦхатГПТ упите.
„Једноставно користећи ЦхатГПТ упите и без писања било каквог кода, били смо у могућности да произведемо веома напредан напад за само неколико сати“, рекао је Мулгрев у Форцепоинт пост.
Корисници су такође наводно били у могућности да добију цхат ботове да им дају упутства о томе како да направе бомбе или украду аутомобиле.
7. Удеси самовозећих аутомобила
Ентузијазам за аутономна возила је пригушен од почетне фазе узбуђења због грешака које је направила вештачка интелигенција која самостално вози. 2022. Тхе Васхингтон Пост известио је да су за отприлике годину дана 392 судара који су укључивали напредне системе за помоћ возачу пријављене америчкој Националној управи за безбедност саобраћаја на путевима.
Ове несреће су укључивале тешке повреде и шест смртних случајева.
Иако ово није спречило компаније попут Тесле да се баве потпуно аутономним возилима, јесте је изразио забринутост због пораста несрећа јер све више аутомобила са софтвером за самовозе улази у промет путеви.
АИ машинско учење није сигуран
Иако машинско учење може да створи моћне алате за вештачку интелигенцију, они нису имуни на лоше податке или неовлашћене људске манипулације. Било због погрешних података о обуци, ограничења са АИ технологијом или употребе од стране лоших актера, ова врста АИ је довела до многих негативних инцидената.