Све више компанија забрањује ЦхатГПТ на радном месту, али шта се крије иза забрана?

Упркос својим импресивним способностима, неколико великих компанија је забранило својим запосленима да користе ЦхатГПТ.

У мају 2023. Самсунг је забранио употребу ЦхатГПТ-а и других генеративних АИ алата. Затим, у јуну 2023, Цоммонвеалтх Банк оф Аустралиа је следила њихов пример, заједно са компанијама као што су Амазон, Аппле и ЈПМорган Цхасе & Цо. Неке болнице, адвокатске фирме и владине агенције такође су забраниле запосленима да користе ЦхатГПТ.

Дакле, зашто све више компанија забрањује ЦхатГПТ? Ево пет главних разлога.

1. Цурење података

ЦхатГПТ захтева велику количину података за обуку и ефикасан рад. Цхатбот је обучен коришћењем огромне количине података добијених са интернета и наставља да се обучава.

Према ОпенАИ-ова страница помоћи, сваки део података, укључујући поверљиве детаље о клијентима, пословне тајне и осетљиво пословање информације које унесете четботу подложни су прегледу од стране његових тренера, који могу користити ваше податке за побољшање њихове системе.

instagram viewer

Многе компаније подлежу строгим прописима о заштити података. Као резултат тога, они су опрезни када деле личне податке са спољним ентитетима, јер то повећава ризик од цурења података.

Осим тога, ОпенАИ не нуди никакву поуздану заштиту података и гаранцију поверљивости. У марту 2023. ОпенАИ потврђено грешка која омогућава неким корисницима да виде наслове ћаскања у историјама других активних корисника. Иако је ова грешка исправљена и ОпенАИ је покренуо програм за награђивање грешака, компанија не гарантује безбедност и приватност података корисника.

Многе организације се одлучују да забране запосленима да користе ЦхатГПТ како би избегле цурење података, што може оштетити њихову репутацију, довести до финансијских губитака и довести њихове клијенте и запослене у ситуацију ризик.

2. Ризици за сајбер безбедност

Док нејасно је да ли је ЦхатГПТ заиста склон ризицима за сајбер безбедност, постоји шанса да његова примена унутар организације може да уведе потенцијалне рањивости које сајбер нападачи могу да искористе.

Ако компанија интегрише ЦхатГПТ и постоје слабости у безбедносном систему цхатбот-а, нападачи ће можда моћи да искористе рањивости и убаце шифре злонамерног софтвера. Такође, способност ЦхатГПТ-а да генерише људске одговоре је златно јаје за пхисхинг нападаче који могу да узму преко налога или лажно представљати легитимне ентитете како би обманули запослене компаније да поделе осетљиве информације.

3. Креирање персонализованих робота за ћаскање

Упркос својим иновативним карактеристикама, ЦхатГПТ може произвести лажне и обмањујуће информације. Као резултат тога, многе компаније су направиле АИ цхат ботове за радне сврхе. На пример, Цоммонвеалтх Банк оф Аустралиа је замолила своје запослене да уместо тога користе Ген.аи, робот за ћаскање са вештачком интелигенцијом (АИ) који користи информације ЦоммБанк-а за пружање одговора.

Компаније као што су Самсунг и Амазон развиле су напредне моделе природног језика, тако да предузећа могу лако да креирају и примењују персонализоване роботе за ћаскање на основу постојећих транскрипата. Помоћу ових интерних робота за ћаскање можете спречити правне последице и последице по репутацију повезане са погрешним руковањем подацима.

4. Недостатак регулативе

У индустријама у којима компаније подлежу регулаторним протоколима и санкцијама, недостатак регулаторних смерница ЦхатГПТ-а представља црвену заставу. Без прецизних регулаторних услова који регулишу коришћење ЦхатГПТ-а, компаније се могу суочити са тешким правним последицама када користе АИ цхатбот за своје операције.

Поред тога, недостатак регулативе може умањити одговорност и транспарентност компаније. Већина компанија може бити збуњена око објашњења Процеси доношења одлука и безбедносне мере АИ језичког модела својим купцима.

Компаније ограничавају ЦхатГПТ, плашећи се потенцијалног кршења закона о приватности и прописа специфичних за индустрију.

5. Неодговорно коришћење од стране запослених

У многим компанијама, неки запослени се ослањају искључиво на ЦхатГПТ одговоре да би генерисали садржај и извршили своје дужности. Ово рађа лењост у радном окружењу и подстиче креативност и иновативност.

Зависност од вештачке интелигенције може ометати вашу способност критичког размишљања. Такође може оштетити кредибилитет компаније, јер ЦхатГПТ често пружа нетачне и непоуздане податке.

Иако је ЦхатГПТ моћан алат, његово коришћење за решавање сложених упита који захтевају експертизу специфичну за домен може оштетити рад и ефикасност компаније. Неки запослени се можда неће сетити да провере чињенице и верификују одговоре које даје АИ цхатбот, третирајући одговоре као решење које одговара свима.

Да би ублажиле проблеме попут ових, компаније забрањују цхатбот како би запослени могли да се усредсреде на своје задатке и да корисницима пруже решења без грешака.

Забране ЦхатГПТ-а: боље безбедно него извињење

Компаније које забрањују ЦхатГПТ указују на ризике за сајбер безбедност, етичке стандарде запослених и изазове усклађености са прописима. Неспособност ЦхатГПТ-а да ублажи ове изазове истовремено пружајући решења за индустрију сведочи о његовим ограничењима и потреби да се даље развија.

У међувремену, компаније прелазе на алтернативне цхат ботове или једноставно ограничавају запосленима да користе ЦхатГПТ да бисте избегли потенцијалне повреде података и непоуздане безбедносне и регулаторне протоколе повезане са цхатбот.