Реклама

Током последњих неколико месеци можда сте прочитали покривеност у околини чланак, чији је коаутор аутор Степхен Хавкинг, разматрајући ризике повезане са вештачком интелигенцијом. У чланку се сугерише да АИ може представљати озбиљан ризик за људски род. Хавкинг није сам тамо - Елон Муск и Петер Тхиел су обе интелектуалне јавне личности које су изразиле сличну забринутост (Тхиел је уложио више од 1,3 милиона долара у истраживање проблема и могућих решења).

Покривање Хавкинговог чланка и Мускових коментара били су, да се то не би превише финирало, помало весело. Тон је био веома много "Погледајте ову чудну ствар за коју се сви ти гејери брину." Мало се разматра идеја да ако неки од најпаметнијих људи на Земљи упозоравају да би нешто могло бити веома опасно, то би могло бити вредно послушања.

То је разумљиво - вештачка интелигенција која преузима свет сигурно звучи врло чудно и невероватна, можда због огромне пажње коју овој науци фантастика већ придаје писци. Дакле, шта су се сви ови номинално разумни, рационални људи толико саблазнили?

Шта је интелигенција?

Да бисмо разговарали о опасности од вештачке интелигенције, било би корисно схватити шта је интелигенција. Да бисмо боље разумели проблем, погледајмо играчку АИ архитектуру коју користе истраживачи који проучавају теорију расуђивања. Ова играчка АИ се зове АИКСИ и има низ корисних својстава. Њени циљеви могу бити произвољни, добро се слажу са рачунарском снагом, а његов унутрашњи дизајн је врло чист и јасан.

Надаље, можете имплементирати једноставне, практичне верзије архитектуре које могу радити такве ствари игра Пацман, ако желиш. АИКСИ је производ АИ истраживача по имену Марцус Хуттер, сигурно најистакнутији стручњак за алгоритмичку интелигенцију. То је он који говори у горњем видеу.

АИКСИ је изненађујуће једноставан: има три основне компоненте: ученик, планер, и услужна функција.

  • Тхе ученик узима низ битова који одговарају уносу о спољном свету и претражује рачунарске програме док не нађе оне који дају своја запажања као излаз. Ови програми, заједно, омогућавају да претпоставе како ће изгледати будућност, једноставно покретањем сваког програм напријед и вагање вјероватности резултата према дужини програма (имплементација Оццам-а Бријач).
  • Тхе планер претражује могуће акције које агент може предузети, и помоћу модула за учење предвиђа шта ће се догодити ако се догоди свака од њих. Затим их процењује према томе колико су добри или лоши предвиђени исходи и бира ток активност која максимизира доброту очекиваног исхода помножено са очекиваном вероватноћом постизање.
  • Последњи модул, услужна функција, је једноставан програм који садржи опис будућег стања света и израчунава резултат корисности за то. Овај резултат корисности је колико је добар или лош тај исход, а планира га користити за процену будуће светске државе. Функција услужног програма може бити произвољна.
  • Ове три компоненте заједно оптимизер, што оптимизује за одређени циљ, без обзира на свет у којем се налази.

Овај једноставан модел представља основну дефиницију интелигентног агента. Агент проучава своје окружење, гради му моделе, а затим користи те моделе како би пронашао ток акције који ће повећати изгледе да добију оно што желе. АИКСИ је по структури сличан АИ који игра шах или друге игре са познатим правилима - осим што је у стању да закључи правила игре играјући га, почевши од нула знања.

АИКСИ, с обзиром на довољно времена за рачунање, може научити да оптимизира било који систем за било који циљ, колико год комплексан. То је генерално интелигентан алгоритам. Имајте на уму да ово није исто што и интелигенција слична човеку (биолошки инспирисан АИ је уопште другачија тема Гиованни Идили из ОпенВорма: Мозак, Црви и Вештачка интелигенцијаСимулација људског мозга је пут, али пројекат отвореног кода предузима виталне прве кораке, симулирајући неурологију и физиологију једне од најједноставнијих животиња познатих науци. Опширније ). Другим речима, АИКСИ би могао да надмаши било које људско биће у било ком интелектуалном задатку (с обзиром на довољно рачунарске снаге), али можда није свесна своје победе Машине за размишљање: Шта нас неуронаука и вештачка интелигенција могу научити о свестиДа ли изградња вештачки интелигентних машина и софтвера може да нас научи о раду свести и природи самог људског ума? Опширније .

хеадцулптуре

Као практични АИ, АИКСИ има пуно проблема. Прво, нема начина да нађе оне програме који производе излаз који је занима. То је алгоритам бруталне силе, што значи да није практично ако нема случајно моћан рачунар. Свака стварна имплементација АИКСИ-а по потреби је апроксимација и (данас) углавном прилично сурова. Ипак, АИКСИ нам пружа теоретски поглед на то како моћна вештачка интелигенција може изгледати и како би могла да разлог.

Простор вредности

Ако урадио си било који рачунарски програм Основе рачунарског програмирања 101 - променљиве и типови податакаПредставивши се и поразговарајући о објектно оријентисаном програмирању пре и где је његов имењак долази од, мислио сам да је време да прођемо кроз апсолутне основе програмирања у језику који није специфичан за језик начин. Ово ... Опширније , знате да су рачунари подмукло, педантно и механички дословно. Машина не зна или није брига шта желите да ради: ради само оно што му је речено. Ово је важан појам када говоримо о машинској интелигенцији.

Имајући то на уму, замислите да сте измислили моћну вештачку интелигенцију - смислили сте се са паметним алгоритмима за генерисање хипотеза које одговарају вашим подацима и за генерисање доброг кандидата планова. Ваш АИ може решити опште проблеме и то може ефикасно урадити на савременом рачунарском хардверу.

Сада је време да одаберете услужну функцију, која ће одредити које АИ вредности. Шта бисте то тражили од вредности? Запамтите, машина ће бити одвратно, педантно дословна о било којој функцији коју тражите да максимизира, и никад се неће зауставити - нема духа у машина која ће се икада „пробудити“ и одлучити да промени своју услужну функцију, без обзира на то колико побољшања ефикасности чини сопственим расуђивање.

Елиезер Иудковски стави овако:

Као и у сваком рачунарском програмирању, основни изазов и основна тешкоћа АГИ је да ако напишемо погрешан код, АИ неће аутоматски прегледати наш код, обележити грешке, открити шта смо заиста желели да кажемо и урадити то уместо тога. Непрограмери понекад замишљају да је АГИ или компјутерски програм уопште аналоган слуги који неупитно слиједи наредбе. Али није да је АИ апсолутно послушан на свој код; радије, АИ једноставно је код.

Ако покушавате да управљате фабриком и кажете машини да вреднује израду папирних спајалица, а затим јој дајете контролу над хрпом фабричких робота, можете се вратити сутрадан да утврдите да му је понестало сваког другог облика сировине, побили све ваше запослене и направили спајалице од њихових остаје. Ако покушате да исправите погрешку, репрограмирате машину како би једноставно усрећио све, можете се вратити сутрадан да бисте је нашли како ставља жице у мозак људи.

спајалице

Поента је у томе да људи имају много компликованих вредности за које претпостављамо да се имплицитно деле са осталим умовима. Ми ценимо новац, али више ценимо људски живот. Желимо да будемо срећни, али не морамо нужно да стављамо жице у мозак да бисмо то урадили. Не осећамо потребу да разјаснимо ове ствари када дајемо упутства другим људским бићима. Међутим, не можете да претпостављате ове врсте претпоставки када дизајнирате услужну функцију машине. Најбоља решења у бездушној математици једноставне корисне функције често су решења која би људска бића замишљала да буду морално застрашујућа.

Допуштање интелигентној машини да максимизира наивну корисну функцију готово увек ће бити катастрофално. Како то каже оксфордски филозоф Ницк Бостом,

Не можемо без претпоставке да ће суперинтелигенција нужно делити било коју од крајњих вредности стереотипно повезаних са мудрошћу и интелектуални развој код људи - научна радозналост, добронамерна брига за друге, духовно просветљење и контемплација, одрицање од материјалне погодности, укуса за рафинирану културу или за једноставне ужитке у животу, понизност и несебичност и тако даље.

Да ствар буде још гора, врло је, веома тешко одредити потпун и детаљан списак свега што људи цене. Питање је пуно, а заборављање чак и једног потенцијално је катастрофално. Чак и међу онима којих смо свесни, постоје суптилности и сложености због којих их је тешко записати као чисте системе једначина које можемо дати машини као корисну функцију.

Неки људи, читајући ово, закључују да је стварање АИ са услужним функцијама ужасна идеја, и требали бисмо их другачије дизајнирати. Ту су и лоше вести - то можете и формално доказати било који агент који нема нешто еквивалентно услужној функцији не може имати кохерентне поставке о будућности.

Рекурзивно самопобољшање

Једно решење горње дилеме је не дати агентима АИ прилику да повреде људе: пружите им само ресурсе који су им потребни решите проблем на начин на који намеравате да буде решен, надгледајте их пажљиво и држите их подаље од могућности да учине сјајно штета. Нажалост, наша способност контроле интелигентних машина је врло сумњива.

Чак и ако нису много паметнији од нас, постоји могућност да се машина „покрене“ - прикупи бољи хардвер или изврши побољшања у сопственом коду што га чини још паметнијим. Ово би могло омогућити машини да прескочи људску интелигенцију за многе величине, надмашујући људе у истом смислу као што људи надмашују мачке. Овај сценариј први је предложио човек по имену И. Ј. Добар, који је радио са пројектом анализе крипти Енигма са Аланом Турингом током Другог светског рата. Назвао га је "обавештајном експлозијом" и описао ствар овако:

Нека се ултраинтелигентна машина дефинише као машина која далеко може надмашити све интелектуалне активности било ког човека, колико год паметна била. Пошто је дизајн машина једна од тих интелектуалних активности, ултра интелигентна машина могла би да конструише још боље машине; тада би несумњиво дошло до "експлозије обавештајних података", а човекова интелигенција била би остављена далеко иза. Стога је прва ултраинтелигентна машина последњи изум који човек икада треба да направи, под условом да је машина довољно послушна.

Није загарантовано да је у нашем универзуму могућа експлозија обавештајне службе, али чини се вероватном. Како вријеме пролази, рачунари добијају бржи и основни увид о стварању интелигенције. То значи да захтев за ресурсима да би се последњи скок претворио у општу, потицајну интелигенцију опада све ниже и ниже. У неком тренутку наћи ћемо се у свету у којем милиони људи могу доћи до Бест Буи-а и преузети хардвер и техничка литература им је потребна за изградњу вештачке интелигенције која се побољшава, што смо већ успоставили опасно. Замислите свијет у којем бисте могли да направите атомске бомбе од штапова и стијена. То је она врста будућности о којој разговарамо.

А, ако нека машина направи тај скок, врло брзо би могла надмашити људску врсту у смислу интелектуалца продуктивност, решавање проблема које милијарда људи не може да реши, на исти начин на који људи могу да решавају проблеме који милијарде мачака не може

Могао би развити моћне роботе (или био или нанотехнологију) и релативно брзо стећи способност да преобликује свет по својој вољи и било би мало тога што бисмо могли учинити у вези с тим. Таква интелигенција могла би без већих проблема уклонити Земљу и остатак Сунчевог система за резервне дијелове на путу да учини оно што смо јој рекли. Изгледа да би такав развој догађаја могао бити катастрофалан за човечанство. Вештачка интелигенција не мора бити злонамерна да би уништила свет, само катастрофално равнодушна.

Као што каже, „Машина вас не воли или мрзи, али ви сте направљени од атома које може користити за друге ствари“.

Процена и ублажавање ризика

Дакле, ако прихватимо да је лоше дизајнирање снажне вештачке интелигенције која максимизира једноставну корисну функцију, у колико проблема стварно имамо? Колико времена имамо пре него што је могуће да направимо такве врсте машина? То је, наравно, тешко рећи.

Програмери вештачке интелигенције су напредујемо. 7 невероватних веб локација да бисте видели најновије програме вештачке интелигенцијеВештачка интелигенција још није ХАЛ из 2001. године: Свемирска одисеја... али ми се приближавамо. Свакако, једног дана би могло бити слично сличном научно-фантастичним потпелерима које је избацио Холливоод ... Опширније Машине које градимо и проблеми које могу да реше непрестано расту. 1997. године Дееп Блуе је могао да игра шах на нивоу већем од људског велемајстора. 2011. године, ИБМ-ов Ватсон могао је дубоко и брзо читати и синтетизовати довољно информација да победи најбоље људе играчи на отворено питање и одговор на игру препуну пунс и игру речи - то је велики напредак у четрнаест година.

Гоогле је тренутно велико улагање у истраживање дубоког учења, техника која омогућава изградњу моћних неуронских мрежа изградњом ланаца једноставнијих неуронских мрежа. Та инвестиција му омогућава да оствари озбиљан напредак у препознавању говора и слике. Њихова најновија аквизиција у том подручју је стартап Дееп Леарнинг под називом ДеепМинд, за који су платили приближно 400 милиона долара. Као део споразума, Гоогле је пристао да створи етичку комисију како би се осигурало сигурно развијање њихове АИ технологије.

неуронске мреже

У исто време, ИБМ развија Ватсон 2.0 и 3.0, системе који су способни за обраду слика и видео записа и аргументирано бране закључке. Они су дали једноставну, рану демонстрацију Ватсонове способности да синтетише аргументе за и против теме у видео демонстрацији испод. Резултати су несавршени, али без обзира на њих импресиван корак.

Ниједна од ових технологија тренутно није опасна: вештачка интелигенција као поље још увек се бори да усклади способности које савладава мала деца. Рачунарско програмирање и АИ дизајн је веома тешка когнитивна вештина високог нивоа и вероватно ће бити последњи људски задатак у којем машине постају вештине. Пре него што дођемо до тога, имаћемо и свеприсутне машине то може да вози Ево како ћемо доћи до света испуњеног аутомобилима без возачаВожња је мучан, опасан и захтеван задатак. Може ли се једног дана аутоматизовати Гоогле-ова технологија аутомобила без возача? Опширније , бавити се медицином и правоми вероватно и друге ствари, са дубоким економским последицама.

Време које ће нам требати да стигнемо до тачке савијања само-побољшања зависи само од тога колико брзо имамо добре идеје. Очекивано је тешко прогнозирати технолошки напредак те врсте. Не чини се неразумним да бисмо могли да изградимо јак АИ за двадесетак година, али такође не делује неразумно да би могло да прође осамдесет година. Било како било, десиће се на крају, и постоји разлог да верујемо да ће, када се то догоди, бити изузетно опасно.

Дакле, ако прихватимо да ће то бити проблем, шта можемо учинити у вези с тим? Одговор је осигурати да су прве интелигентне машине безбедне, тако да могу подићи значајну разину интелигенције, а затим нас заштитити од несигурних машина направљених касније. Та „сигурност“ је дефинисана дељењем људских вредности и спремношћу да заштити и помогне човечанству.

Будући да у ствари не можемо да седнемо и програмирамо људске вредности у машини, вероватно ће бити потребно да направимо услужну функцију која захтева да машина посматрајте људе, закључите наше вредности, а затим покушајте да их максимизујете. Да би се овај процес развоја могао учинити сигурно, такође би могло бити корисно развити вештачке интелигенције које су посебно дизајниране не да имамо склоности у погледу њихових корисних функција, омогућавајући нам да их исправимо или искључимо без отпора ако почну залутати током развоја.

обојени неурони

Многи проблеми које морамо решити да бисмо изградили безбедну машинску интелигенцију су математички тешки, али постоји разлог да се верује да се могу решити. На том питању раде бројне организације, укључујући и ону Будућност Института за хуманост у Окфорду, и Институт за машинску интелигенцију (коју Петер Тхиел финансира).

МИРИ је посебно заинтересован за развој математике која је потребна за изградњу Фриендли АИ-а. Ако се испостави да је могуће вештачко освештавање интелигентне интелигенције, тада се развија ова врста Прва „Фриендли АИ“ технологија, ако буде успешна, може постати највећа ствар коју људи имају икад урађено.

Мислите ли да је вјештачка интелигенција опасна? Да ли сте забринути због онога што би будућност АИ могла донети? Поделите своје мисли у одељку за коментаре испод!

Имаге Цредитс: Лвп Коммуникацио Виа Флицкр, “Неуронске мреже„, Фдецомите,“ имг_7801", Стеве Раинватер," Е-Волве ", Кеони Цабрал,"нев_20к", Роберт Цудморе,"Спајалице“, Цлиффорд Валлаце

Писац и новинар са југозапада, Андре је загарантовано да ће остати функционалан до 50 степени Целзијуса, а водоотпоран је до дубине од дванаест стопа.