Са модерним моделима АИ језика као што су ЦхатГПТ и Мицрософт-ов Бинг Цхат који стварају таласе широм света, велики број људи је забринут да ће АИ преузети свет.

Иако се у догледној будућности нећемо налетети на СкиНет, вештачка интелигенција постаје боља од људи у неколико ствари. Ту долази у обзир проблем контроле вештачке интелигенције.

Објашњен проблем контроле вештачке интелигенције

Проблем контроле вештачке интелигенције је идеја да ће вештачка интелигенција на крају постати боља у доношењу одлука од људи. У складу са овом теоријом, ако људи унапред не поставе ствари исправно, нећемо имати прилику да поправимо ствари касније, што значи да ће АИ имати ефективну контролу.

Тренутна истраживања АИ и модела машинског учења (МЛ) су, у најмању руку, годинама од превазилажења људских способности. Међутим, разумно је мислити да ће, с обзиром на тренутни напредак, АИ надмашити људе у смислу интелигенције и ефикасности.

То не значи да АИ и МЛ модели немају своја ограничења. Они су, на крају крајева, везани законима физике и рачунске сложености, као и процесорском снагом уређаја који подржавају ове системе. Међутим, сигурно је претпоставити да су ове границе далеко изнад људских могућности.

То значи да је суперинтелигентан Системи вештачке интелигенције могу представљати велику претњу ако нису правилно дизајнирани са постављеним заштитним мерама за проверу сваког потенцијално лажног понашања. Такви системи морају бити изграђени од темеља како би се поштовале људске вредности и како би њихова моћ била под контролом. То је оно што проблем контроле значи када каже да ствари морају бити исправно подешене.

Ако би систем вештачке интелигенције надмашио људску интелигенцију без одговарајућих заштитних механизама, резултат би могао бити катастрофалан. Такви системи могу преузети контролу над физичким ресурсима јер се многи задаци остварују боље или ефикасније. Пошто су системи вештачке интелигенције дизајнирани да постигну максималну ефикасност, губитак контроле може довести до озбиљних последица.

Када се примењује проблем АИ контроле?

Главни проблем је у томе што што је АИ систем бољи, то је људском надзорнику теже да надгледа технологију како би се осигурало да се ручна контрола може лако преузети у случају да систем закаже. Поред тога, људска тенденција да се ослањају на аутоматизовани систем је већа када систем већину времена ради поуздано.

Одличан пример за то је Тесла комплет за самосталну вожњу (ФСД).. Док аутомобил може сам да вози, потребно је да човек има руке на волану, спреман да преузме контролу над аутомобилом у случају квара система. Међутим, како ови системи вештачке интелигенције постану поузданији, чак и најбуднија људска пажња ће почети да варира, а зависност од аутономног система ће се повећати.

Па шта се дешава када аутомобили почну да возе брзином коју људи не могу да прате? На крају ћемо препустити контролу аутономним системима аутомобила, што значи да ће АИ систем имати контролу над вашим животом, барем док не стигнете на одредиште.

Да ли се проблем контроле вештачке интелигенције може решити?

Постоје два одговора на питање да ли се проблем контроле вештачке интелигенције може решити или не. Прво, ако питање тумачимо дословно, проблем контроле се не може решити. Не можемо да урадимо ништа што директно циља на људску склоност да се ослања на аутоматизовани систем када он већину времена ради поуздано и ефикасније.

Међутим, ако се ова тенденција узме у обзир као карактеристика таквих система, можемо смислити начине да заобиђемо проблем контроле. На пример, тхе Алгоритамско одлучивање и проблем контроле истраживачки рад предлаже три различите методе за решавање проблема:

  • Употреба мање поузданих система захтева од човека да се активно ангажује у систему пошто мање поуздани системи не представљају проблем контроле.
  • Сачекати да систем премаши људску ефикасност и поузданост пре примене у стварном свету.
  • Да имплементира само делимичну аутоматизацију користећи декомпозицију задатака. То значи да су аутоматизовани само они делови система који не захтевају људски оператер да изврши важан задатак. То се зове приступ динамичке/комплементарне алокације функција (ДЦАФ).

ДЦАФ приступ увек ставља човека оператера на чело аутоматизованог система, обезбеђујући да њихов унос контролише најважније делове процеса доношења одлука у систему. Ако је систем довољно ангажован да људски оператер стално обраћа пажњу, проблем контроле се може решити.

Можемо ли икада заиста контролисати АИ?

Како системи вештачке интелигенције буду напреднији, способнији и поузданији, наставићемо да им пребацујемо више задатака. Међутим, проблем контроле вештачке интелигенције може се решити уз праве мере предострожности и заштите.

АИ већ мења свет за нас, углавном на боље. Све док се технологија држи под људским надзором, не би требало да имамо разлога да бринемо.