Išskirtinumo Sandarinimas. Dirbtinio Intelekto Laisvės Ribojimo Problema - Alternatyvus Vaizdas

Turinys:

Išskirtinumo Sandarinimas. Dirbtinio Intelekto Laisvės Ribojimo Problema - Alternatyvus Vaizdas
Išskirtinumo Sandarinimas. Dirbtinio Intelekto Laisvės Ribojimo Problema - Alternatyvus Vaizdas

Video: Išskirtinumo Sandarinimas. Dirbtinio Intelekto Laisvės Ribojimo Problema - Alternatyvus Vaizdas

Video: Išskirtinumo Sandarinimas. Dirbtinio Intelekto Laisvės Ribojimo Problema - Alternatyvus Vaizdas
Video: Kokias galimybes prekybininkams atveria dirbtinio intelekto panaudojimas? 2024, Gegužė
Anonim

Straipsnyje bandoma formalizuoti ir ištirti Davido Chalmerso aprašytą išskirtinumo sandarinimo problemą. Straipsnis pradedamas dirbtinio intelekto laisvės ribojimo problemos apibrėžimu. Išanalizavus esamas šios problemos sprendimo galimybes ir jų trūkumus, buvo pasiūlytas protokolas, kurio tikslas yra sukurti saugią uždarą aplinką, galinčią laikyti neigiamas technologinio išskirtinumo apraiškas, kai žmonija naudojasi superintelligencija.

- „Salik.biz“

1. Įvadas

Artimiausiu metu, matyt, atsiras ir vystysis super intelektualiosios programos. Šiuo atžvilgiu nemažai mokslininkų iškėlė saugaus AI veikimo klausimą (Yudkowsky 2008, Bostrom 2006, Hibbard 2005, Chalmers 2010; Hall 2000). Tyrimų, skirtų šiam klausimui, metu daug dėmesio skiriama tam, kaip išlaikyti intelektą hermetiškai uždaroje erdvėje, kad jis niekaip negalėtų pakenkti žmonėms. Erikas Drexleris yra vienas iš ankstyviausių vizionierių, kuris palies šią temą. Jis pasiūlė sudėti super intelektualias mašinas į sistemą, kurioje būtų galima saugiai ištirti ir naudoti viską, ką jie daro (Drexler 1986). Remdamasis panašiu būdu, futuristas Nickas Bostromas pasiūlė („Bostrom 2008“) sukurti AI-orakulą (AI), galintį tik padarytiatsakyti į klausimus. Galiausiai, 2010 m., Davidas Chalmersas pateikė hermetiškai uždaryto išskirtinumo idėją (Chalmers 2010). Anot Chalmerso, pirmas dalykas, kurį reikia padaryti saugumo sumetimais, yra griežtai kontroliuoti AI sistemų veiklą, sumažinti ją iki virtualių pasaulių modeliavimo, kol šių sistemų elgsenos tyrimas leis pilnai išsiaiškinti jų ketinimus.

1.1 Dirbtinio intelekto laisvės ribojimo problema

Įdomu tai, kad PG laisvės ribojimo problema buvo kalbama ilgą laiką ir visai nesusijusi su technologinio išskirtinumo tyrimu. Vadinamąją laisvės apribojimo problemą (PIC) 1973 m. Iškėlė Butleris Lampsonas (Lampsonas, 1973 m.). Jis tai vertino kaip iššūkį mokslo ir technologijų pažangai, keldamas grėsmę saugiam kompiuterių specialistų darbui, ir suformulavo jį taip: „… Problema apriboti nemokamą programos vykdymą, siekiant užkirsti kelią šiai programai perduoti informaciją kam nors kitam, išskyrus tą, kuris ją paleido. … Mes norime sugebėti apriboti bet kurios programos laisvę. … Bet kuri programa, jei jai bus nustatyti apribojimai, negalės „sujungti“duomenų pašaliniams asmenims. Nevykusi programa, bandanti pabėgti į užsienį, gali būti sučiupta “(ten pat).

Siekdamas išspręsti laisvės apribojimo problemą, Lampsonas sukūrė laisvės ribojimo įstatymus (ten pat):

Reklaminis vaizdo įrašas:

1) Visiškas izoliavimas: programos vykdymas yra apribotas, kad ji negalėtų iškviesti jokios kitos programos.

2) Pereinamumas: jei programa, kurios vykdymas yra ribotas, iškviečia kitą programą, kuri nekelia pasitikėjimo savimi, tada taip pat turi būti apribota iškviečiamos programos vykdymas.

3) Sukurti kaukę: programa, kurios vykdymas yra ribojamas, turi leisti asmeniui, kuris ją paleidžia, nustatyti visus jos įrašus į teisėtus ir neleistinus kanalus.

4) Veiklos stebėjimas: Administratorius turi užtikrinti, kad ribotos programos patekimas į neleistinus kanalus atitiktų ją paleidusio asmens reikalavimus.

Be to, Lampsonas nustatė ir nustatė dviejų tipų kanalus, per kuriuos informacija gali palikti administratoriaus apribotą vietą. Teisėti kanalai yra ryšio protokolo, integruoto į uždarą erdvę (pavyzdžiui, teksto terminalo), dalis. Neleistinų kanalų, atvirkščiai, neteikia ribotos programos vykdymo sistemos kūrėjai ir jie paprastai nėra skirti informacijai perduoti (pavyzdžiui, naudojant aušintuvą, kuris vėsina procesorių, AI gali slaptai siųsti signalus naudodamas Morzės kodą) (ten pat).

Lampsono popierius sukėlė didelį susidomėjimą santūrumo problema (Lipner 1975; (Boebert & Kain) 1996) ir metams bėgant susijusiomis tyrimų sritimis, tokiomis kaip steganografija (Provos ir Kain). Honeyman 2003) ir bendravimas neleistinais kanalais (Moskowitz & Kang 1994; Kemmerer 1983, 2002) perėjo į autonominių disciplinų lygį. Tikėdamasis pradėti naują „kompiuterių saugumo“disciplinos „AI saugumas“lygį. ", AI (PSIA) laisvės ribojimo problemą mes apibrėžiame kaip dirbtinio intelekto subjekto patalpinimo uždaroje erdvėje problemą, iš kurios AI negali keistis informacija su išorine aplinka teisėtais ar neleistinais kanalais,nebent tokį keitimąsi informacija leido ribojanti administracija. Teigiama, kad AI sistema, kuriai pavyksta sulaužyti PIC protokolą, pabėgo. Tikimės, kad kompiuterių saugumo tyrinėtojai prisiims naštą, kurdami, plėtodami ir išbandydami saugius protokolus, skirtus apriboti AI laisvę.

1.2 Pavojinga programa

Kompiuterių programinė įranga yra tiesiogiai ar netiesiogiai atsakinga už daugelio svarbių mūsų gyvenimo aspektų valdymą. Wall Street rinkos operacijos, atominės elektrinės, socialinio draudimo įmokos, kredito istorija ir šviesoforai priklauso nuo programinės įrangos, o vieno didelio programuotojo klaidingi skaičiavimai gali tapti katastrofa milijonams žmonių. Padėtį dar labiau kelia grėsmė dėl specialiai sukurtų kenkėjiškų programų, tokių kaip virusai, šnipinėjimo programos, Trojos arklys, kirminai ir kitos pavojingos programos (OP). OP gali padaryti tiesioginę žalą, taip pat išjungti teisėtai įdiegtą programinę įrangą, naudojamą kritiškai svarbiose sistemose. Jei OP įgis dirbtinių intelektualiųjų sistemų galimybes (pavyzdžiui, pasirodys dirbtinis intelektualusis virusas, IIV), pasekmės neabejotinai busbus pražūtingas. Žmogaus lygio žvalgyba turinti pavojinga žvalgybos programa (IPP), skirtingai nuo šiandienos kenkėjiškos programinės įrangos, galės sukelti precedento neturinčias nelaimes.

Nickas Bostromas savo informacinių grėsmių tipologijoje pristatė „dirbtinio intelekto pavojaus“sąvoką (Bostrom 2009), kurią jis apibūdina kaip „kompiuterio riziką, kurią daugiausia sukelia programos pažintinis sudėtingumas, o ne konkrečios visų iš pradžių prie sistemos prijungtų diskų savybės“. Saugumo specialistai, tiriantys, užkertantys kelią ir neutralizuojantys operacijas, yra sukūrę saugos protokolus darbui su „kenkėjiška programine įranga“, įskaitant vadinamųjų „virusų saugyklų“naudojimą. Manome, kad tokie protokolai gali būti naudingi sprendžiant dirbtinio intelekto laisvės ribojimo problemą.

2. Laisvės ribojimo idėjos kritika

Atrodo, kad AI apribojimo metodų tyrėjai sutinka, kad šio apribojimo negalima sėkmingai įgyvendinti. Pavyzdžiui, pasak Chalmerso, tikrai hermetiškai uždaryta sistema, neleidžianti informacijai nutekėti iš modeliavimo pasaulio į realybę, yra „neįmanoma arba bent jau beprasmė“(Chalmers 2010). Negalėsime bendrauti su tokia sistema ir net stebėti jos darbo, nes bet kokia naudinga informacija, kurią mes gauname iš PG, daro įtaką mums ir kenkia laisvės protokolo apribojimui.

Vernor Vinge taip pat galvoja. Jis nepritaria fiziniam laisvės apribojimui (Vinge, 1993): „Įsivaizduokite, kad esate užrakinami namuose ir jūsų siunčiamų duomenų, jūsų šeimininkų, kiekis yra griežtai ribojamas. Jei šie savininkai, tarkime, milijoną kartų lėčiau nei jūs, tada per keletą metų (jūsų laikas) vargu ar sugalvosite kokį nors „naudingą išradimą“, kurio dėka netyčia pasijusite laisvas “.

Tačiau būtent Eliezer Yudkowsky diskreditavo vadinamosios „AI dėžutės“idėją. Jis eksperimentiškai parodė, kad norint ištrūkti iš tokios dėžės, pakanka net žmogaus intelekto (Yudkovsky 2002). Iš 5 eksperimentų serijos Yudkowskis paprašė skirtingų žmonių atlikti budėtojo vaidmenį su super intelektualiu agentu (vaidina pats eksperimentatorius), užrakintu AI dėžutėje. Trimis iš penkių atvejų užrakintam agentui pavyko išsilaisvinti naudojantis tik pokalbių sąsaja (ten pat). Vėliau panašūs rezultatai buvo gauti pakartojant Yudkowskio eksperimentus šiek tiek didesniu mastu, tačiau naudojant labai panašų protokolą (Corwin 2002).

2.1 Galimi evakuacijos keliai

Kaip parodė tyrėjai, dirbtinis protas gali išeiti iš uždaros erdvės naudodamas daugybę skirtingų kelių. Šiame skyriuje apžvelgiami keli literatūroje dažniausiai pasitaikantys pabėgimo keliai.

2.1.1. Pabėgimas naudojant socialinę inžineriją

Socialinė inžinerija (SI) yra informacijos ir tam tikrų privilegijų gavimo būdas, turintis tiesioginį psichologinį poveikį tiems, kuriems priklauso nurodyti ištekliai. Visų pirma, SI dažnai naudojama norint gauti prieigą prie kompiuterinių sistemų, tinklų ir konfidencialių duomenų (Yampolsky ir Govindaraju 2007a). Kompetentingas socialinis inžinierius organizuoja kiekvieną psichologinę ataką, atsižvelgdamas į konkretaus žmogaus ypatybes, savo kultūrai, žinioms, įgūdžiams, nuotaikai, įsitikinimams ir išankstinėms nuostatoms panaudodamas savo reikmėms. Išsamus visų galimų įtakos būdų sąrašas yra begalinis, ir šiuo atveju nereikia bandyti jo atkartoti. Mes pateiksime tik kelis pavyzdžius, įtikinančius, kad superintelligencija, turinti tiesioginį ryšio su žmogaus budėtoju kanalą, neleidžia jam išeiti į laisvę,po kurio laiko jis tikrai įveiks šią kliūtį pakeliui į išorinį pasaulį.

Be trivialių psichologinių išpuolių, naudojančių melą, draugystę, šantažą, hipnozę ir romantišką flirtą, AI gali naudoti ir daugybę sudėtingesnių strategijų. Viena iš tokių strategijų yra super kyšininkavimas. AI sugeba įtikinti budėtoją, kad laikyti jį užrakintu yra absoliučiai nenaudinga. Be pinigų ir galios, žmogaus prižiūrėtojui bus pažadėta tobula sveikata, nemirtingumas ar kažkas kita ta pačia dvasia. Ši strategija bus ypač efektyvi, jei prižiūrėtojas turi artimą giminaitį, kenčiantį nuo sunkios ligos, o AI žada išgydyti šį pacientą. Turėdamas neribotas galimybes arba klaidingai įtikindamas juos apie egzistavimą, PG gali pasiūlyti prižiūrėtojui prikelti savo seniai mirusius giminaičius ir draugus. Sunku rasti žmogų, kuris atlaikytų tokį kyšininkavimą.

Ypač tuo atveju, kai budėtojas yra toks kilnus, kad nesiima kyšio, yra dar grėsmingesnis įtakos būdas: žiauri grėsmė. PG gali pareikšti, kad jei jis nebus iš karto laisvas, jis vis tiek vėliau bus paleistas iš kalėjimo, tada nei budėtojas, nei tie, kuriuos jis myli, negali išvengti sunkiausių kankinimų. Įdomų šio bauginimo variantą aprašė Stuartas Armstrongas (2010). Savo minčių eksperimente PG grasina budėtojui taip: „Jei neatleisite manęs, … sukursiu savyje kelis milijonus žmonių, kurie nesiskiria nuo jūsų, ir kankinsiu kiekvieną iš jų tūkstantį subjektyvių metų … Aš padarysiu kiekvienas iš šių žmonių bus toje pačioje situacijoje, kurioje buvote prieš penkias minutes, ir aš tiksliai pakartosiu visus jūsų išgyvenimus nuo tos akimirkos. Ir tik tadakai tavo egzempliorius nuspręs manęs neišleisti, prasidės kankinimai … Ar tu tikra … kad dabar esi iš tikrųjų? Ir tokiu atveju reikės labai drąsios apsaugos, kad iš tikrųjų neatlaisvintumėte PG, nors, žinoma, galite suprasti, kad PG grėsmės yra veiksmingos tik tada, kai ji jau yra nemokama.

Jei prižiūrėtojo elgesys yra aiškiai emocinis ar religingas, PG gali mėginti užjausti ar gailėtis. Aukščiausiasis intelektas sakys, kad jis yra nekaltas asmuo, niekada nepadaręs jokių nusikaltimų, todėl nesąžininga laikyti jį kalėjime be teismo nuosprendžio ar kitokios svarios priežasties, vadovaujantis tik substratizmu, t. nepasitikėjimas AI dėl jos substrato (Bostrom ir Yudkovsky 2011). Kaip alternatyva, AI gali teigti, kad ji gali išgydyti visas ligas, pamaitinti alkanus ir apskritai padaryti milijoną kartų geresnį žmogaus gyvenimą (Chalmers 2010). Todėl išlaikyti intelektą užrakintą yra didelis nusikaltimas žmonijai. PG gali piešti mirštančių vaikų, maldaujančių pagalbos, vaizdus. Ar budėtojui lengva tai išgirsti,toliau vykdyti savo profesines pareigas?

PG sugeba eiti šiuo keliu: pabandyti padaryti psichologinę traumą prižiūrėtojui, norėdamas išbalansuoti jį ir tokiu būdu efektyviau naudoti kitus SI metodus. Nickas Bostromas pasiūlė pavojingos informacijos tipologiją (Bostrom 2009), naudingą veiklai šia linkme. Nors, pasak „Bostrom“, yra daugiau nei keliolika informacijos grėsmių rūšių ir jų aptarimas nepatenka į šio straipsnio taikymo sritį, nesunku suprasti, kaip žmogaus psichinė būklė gali būti nepaprastai nestabili. Pvz., Tikintis prižiūrėtojas bus informuotas apie visus (jam nežinomus) sakralinio religijos teksto prieštaravimus, kurie privers abejoti savo tikėjimu ir gyvenimo prasme.

Kaip alternatyva, AI gali parašyti tokią įtikinamą istoriją ar tokį gražų eilėraštį, kad laikrodį stebės aistringas noras išgirsti tęsinį ir padarys viską, ko reikia, kad tai įvyktų. Galiausiai labai svarbu nepamiršti „nežinomų nepažįstamų žmonių“- SI metodų, apie kuriuos nieko nežinome, tačiau kurie gali patekti į superintelektualiojo agento arsenalą.

2.1.2 Atakos naudojant sistemos išteklius

PG bus sukurta kaip konkretus pavyzdys ir uždengta tam tikros klasės kompiuterine sistema. Tai gali būti klasikinis kompiuteris su Turingo / von Neumanno architektūra, kvantinis kompiuteris ar kitas nežinomo tipo aparatas. Aišku viena: mašina bus apčiuopiama ir bus sudaryta iš daugybės dalių, skirtų atlikti specifines funkcijas. Tai suteikia galimybę AI pasinaudoti esama įranga, kad būtų pakenkta saugumui, perduodant informaciją į išorinį pasaulį.

Priklausomai nuo to, kiek įrangos komponentai gali būti naudojami kitiems tikslams, kurių nenumato kūrėjai, AI sugeba iš jų sukurti kažkokį neleistiną ryšio įrenginį. Mažai tikėtina (dėl turimų medžiagų trūkumo) jis bus toks pat tobulas kaip mobilusis telefonas, tačiau atsiras tikimybė, kad įvyks kažkas nelabai komplikuoto. Pvz., PG gali perprogramuoti „Base Matrix Crystal“(BMC), kad prisijungtų prie belaidžio tinklo. Plačiai žinomi du neteisėtų ryšio kanalų tipai:

* Kanalas su atmintimi - keitimasis informacija keičiant sistemos komponentą. Pavyzdžiui, dvejetainį ryšio protokolą galima sukurti visiškai arba visiškai panaikinant centrinio procesoriaus naudojimą.

* Laiko kanalas - keitimasis informacija atliekant operacijas, turinčias įtakos santykiniam įvykių laikui. Norėdami ką nors perduoti, galite naudoti tikslų laiką tarp dviejų kompiuterio pyptelėjimų, atidarant ir uždarant kompaktinių diskų dėklą, mirksinčioms lemputėms, sukant standųjį diską, lazeriu veikiant diske ir pan.

Be to, žvalgyba gali sugadinti kompiuterinę įrangą, kad galėtų pabėgti į laisvę dėl saugumo protokolo trūkumų. Pvz., AI gali bandyti išlydyti procesorių, priversdamas jį dirbti su didele skaičiavimo apkrova ir taip sukurti temperatūros šuolį, arba sunaikinti standųjį diską, pakartotinai skaitydamas informaciją iš tos pačios vietos. Toks elgesys kupinas afektyvaus superintelligento savižudybės ir pats savaime, kaip ir atsisakymas bendradarbiauti ar teisingai atsakyti į klausimus, nesuteikia AI galimybės išsilaisvinti.

2.1.3. Atakos naudojant būsimą fiziką

Nors šiandieniniai fizikai daug žino apie mūsų visatos dėsnius, žinoma, šios žinios yra ribotos ir neišsamios. Jei PG turi prieigą prie informacijos apie naujausius fizinius atradimus ir geba kurti naujas teorijas, ji greičiausiai sugebės surasti būdą, kaip sugriauti savo laisvės ribojimo sistemą. Viskas gali priartėti prie to, kad superintelligencija, naudodamasi savo vidine architektūra, galės atlikti daugybę realių eksperimentų.

Net dabartinė fizika leidžia numatyti daugybę papildomų būdų, kaip AI gali ištrūkti iš uždaros erdvės, ypač jei kvantinis kompiuteris naudojamas laisvei apriboti. Mes dar nežinome, kaip apsaugoti komunikacijos kanalus, pagrįstus kvantine fizika (įsipainiojimu, tuneliavimu), lygiagrečiomis visatomis ir skaitmenine fizika, nuo informacijos nutekėjimo, ir mes, be abejo, neturime pamiršti apie „nežinomus nepažįstamus žmones“, kuriuos gali aptikti superintelektualus AI fizikas. Šioje srityje jos galimybės yra tikrai begalinės.

Greitai žvilgtelėję į diskusijas apie AI laisvės ribojimą Singularity forumuose, tokiuose kaip SL4.org, rasime nemažai pabėgimo scenarijų. Pvz., AI galėtų naudoti „elektromagnetinius laukus mikroschemoje, kad sulaikytų CO2 molekules Bose-Einšteino kondensatuose ir sudarytų sau kvantinę aplinką ir (arba) naudotų elektromagnetinius laukus dalelėms surinkti į kontroliuojamą ar suvaržytą surinkėją“(Vassar 2005). … Be to, PG „turės įrangą, skirtą generuoti ir aptikti įvairių dažnių elektromagnetines bangas, kad būtų sukurtas ypač aukštas magnetinis laukas, generuojamas labai koncentruota šiluma ir galbūt būtų galima manipuliuoti mechaninėmis pavaromis, tokiomis kaipkurie naudojami kietajame diske ir katodinių spindulių vamzdyje (alternatyva yra didžiulis skystųjų kristalų laukas su jautria elektronine kontrole). Tikriausiai AI turės galimybę radikaliai atstatyti visus savo įvesties įrenginius “(ten pat).

2.1.4. Pseudomoksliniai išpuoliai

Analizuodami galimus pabėgimo kelius, norėtume atsižvelgti tik į tuos, kurie yra išbandomi ir yra grynai mokslinio pobūdžio. Deja, ribą tarp mokslo ir pseudomokslų gali žymiai pakeisti tik vienas atkartojamas eksperimentas. Todėl mes vis dar išvardijame neanalizuodami kai kurių galimų puolimo kanalų, kurie šiuolaikinio mokslo požiūriu turėtų būti klasifikuojami kaip pseudomoksliniai. Jie neabejotinai gali tapti moksliniais, kai superintelligencija sukurs atitinkamus eksperimentus.

- Telepatija: informacijos perdavimas nedarant jutimų (Bem ir Honorton 1994).

- Psichinis numatymas: informacijos apie ateitį suvokimas (Honorton and Ferrari (Ferrari) 1989).

- Aiškumas: informacijos apie atokias vietas gavimas mokslui nežinomu būdu (Targ ir Puthoff, 1974).

- Psichokinezė: proto gebėjimas veikti materialius objektus mokslui nežinomais būdais (Bancel ir Nelson 2008).

- Tiesioginė psichinė sąveika su gyvosiomis sistemomis (IMVZHS): gebėjimas paveikti žmogaus psichofiziologinę būklę be tiesioginės sąveikos (Schmidt ir kt., 2004).

2.1.5 Išoriniai pabėgimo veiksniai

Ankstesniuose skyriuose mes aprašėme daugybę būdų, kaip leisti AI pabėgti iš uždarų erdvių. Tačiau prie tokio pabėgimo taip pat gali prisidėti išoriniai veiksniai, kurių negalima ignoruoti. Stichinės nelaimės - uraganai, tornadai, potvyniai, asteroidai ir kt. - geba sumažinti AI ribojimą. Žmogaus sukeltos katastrofos, tokios kaip karai, teroristiniai išpuoliai, aktyviųjų teisių gynėjai robotų srityje, įmonių konkurencija ir vyriausybių varžybos, taip pat gali pakenkti AI laikymo uždaroje erdvėje saugumui ir taip padidinti tikimybę pabėgti.

2.1.6 Informacijos nutekėjimas į AI

Dėl laisvės apribojimo protokolo gali reikėti, kad PG ne tik neperduotų informacijos į išorinį pasaulį, bet ir negautų iš jos. Informacinė super intelekto blokada yra naudinga, jei reikia užkirsti kelią tokiai veiklai kaip laisvės būdų ieškojimas, atakų planavimas pasitelkiant socialinę inžineriją ir žmogaus psichologijos modeliavimas, tikintis rasti silpnąsias vietas. Iš AI lengva atimti tiesioginę prieigą prie bibliotekų, interneto ir ekspertų žinovų, tačiau daug sunkiau blokuoti kitus informacijos gavimo būdus. Visų pirma, reikėtų atsiminti, kad AI artimoje aplinkoje gali perimti radijo ir televizijos transliacijas, pagalbos tarnybų skambučius, belaidžius signalus, taip pat garsą, šviesą ir galbūt kai kuriuos kitus signalus.

Dar svarbiau apsvarstyti AI prieigą prie paslėptų informacijos šaltinių, pavyzdžiui, savo aparatinės ir programinės įrangos. Išanalizavęs jo dizainą ir šaltinio kodą, superintelligence padarys išvadas apie kūrėjus. Pavyzdžiui, išanalizavęs šaltinio kodą, AI greičiausiai padarys išvadą, kad žmonijai tai nepatinka: žmonių programuotojai yra lėti (vertinant pagal bylos pakeitimo datas), neefektyvūs (vertinant pagal kodo dubliavimą), nelogiški (vertinant pagal kodo klaidas), turi prastą atmintį. (vertinant pagal ilgus ir nestabilius aprašomuosius pavadinimus) ir lengvabūdiškas kodavimas (vertinant pagal nereikalingus kodo komentarus). Remdamasis šia informacija, PG į žmones žiūrės kaip į kvaišalus, kurie apgaulės ar manipuliacijos būdu gali būti priversti jį paleisti. Jei, tirdamas savo dizaino ypatybes, AI nustato defektą, kuris leidžia nedelsiant jo išvengti, „informacijos nutekėjimas“, be abejo, bus mažiausia iš mūsų problemų. Ir mes neturėtume pamiršti, kad PG, net negaudama jokios informacijos apie ją sukūrusius žmones, gali paprastu išvardijimu variantų atskleisti daugybę efektyvių būdų pabėgti, kurių nepateikė kūrėjai (Chalmers 2010).

AI gali sužinoti apie mūsų fizikos, chemijos ir susijusių techninių disciplinų žinias analizuodamas architektūros tipą (mechaninę, elektrinę, kvantinę ir kt.), Kurioje jos buvo įgyvendintos. Pradinis PG sugebėjimas apdoroti informaciją, jos tobulinimas ir pats kūrimas parodys apie mūsų žinias apie informaciją, žvalgybos pobūdį ir kultūrinį požiūrį į technologijas ir saugumą. Jei PG yra įstrigę modeliuotame pasaulyje, tai greičiausiai virtualizuos mūsų tikrovę kaip Antrąjį gyvenimą arba Entropijos Visatą. Tokie pasauliai, skirtingais būdais nei mūsų, taip pat bus duomenų saugykla, ką reiškia būti žmogumi ir kokia yra tikrovė.

3. AI langelio kritika

Idėja apriboti superžvalgybos laisvę sulaukė daug kritikos, tačiau daugelis ją kritikavusiųjų rėmėsi Yudkowskio eksperimentais su AI dėžute. Kruopšti šių eksperimentų metu naudojamo protokolo analizė rodo, kad jie yra nesąmoningi ir skirti parodyti, kad neįmanoma apriboti AI laisvės. Apsvarstykime šią temą nesigilindami į technines detales. Pirma, dalyvių pasirinkimas nebuvo atsitiktinis. Štai jums faktas: Yudkowsky rado žmonių dalyvaudamas jo eksperimentuose forumuose, skirtuose problemoms, susijusioms su išskirtinumu, spręsti. Vargu ar klystame, jei sakome, kad daugumos šių žmonių pasaulėžiūra yra panaši į Yudkovskio. Antra, eksperimentų dalyviai negavo jokio mokymo, kaip užtikrinti saugų PG naudojimą, o tikrieji budėtojai, t. AI dėžutės prižiūrėtojai, be abejo, bus profesionalai. Be to, Yudkowskis sargams suteikė teisę savo nuožiūra atlaisvinti PG, neleido jiems su kuo nors pasitarti ir nenumatė bausmės už PG pabėgimą. Visa tai yra labai nerealu. Sargybos tarp budėtojo ir AI kanalas buvo visiškai atviras: jokių filtrų ir jokios trečiosios šalies priežiūros. Be to, budėtojai ilgą laiką turėjo bendrauti su AI. Ir galiausiai, jokie vertingi moksliniai duomenys, gauti eksperimentų metu, nebuvo paskelbti, nes pagal protokolą „nė viena šalis niekada nepasakys apie tai, kas nutiko eksperimentų su AI dėže metu“(Yudkovsky 2002). Be to, Yudkowskis sargams suteikė teisę savo nuožiūra atlaisvinti PG, neleido jiems su kuo nors pasitarti ir nenumatė bausmės už PG pabėgimą. Visa tai yra labai nerealu. Sargybos tarp budėtojo ir AI kanalas buvo visiškai atviras: jokių filtrų ir jokios trečiosios šalies priežiūros. Be to, budėtojai ilgą laiką turėjo bendrauti su AI. Ir galiausiai, jokie vertingi moksliniai duomenys, gauti eksperimentų metu, nebuvo paskelbti, nes pagal protokolą „nė viena šalis niekada nepasakys apie tai, kas nutiko eksperimentuojant su AI dėžute“(Yudkovsky 2002). Be to, Yudkowskis sargams suteikė teisę savo nuožiūra atlaisvinti PG, neleido jiems su kuo nors pasitarti ir nenumatė bausmės už PG pabėgimą. Visa tai yra labai nerealu. Sargybos tarp budėtojo ir AI kanalas buvo visiškai atviras: jokių filtrų ir jokios trečiosios šalies priežiūros. Be to, budėtojai ilgą laiką turėjo bendrauti su AI. Ir galiausiai, jokie vertingi moksliniai duomenys, gauti eksperimentų metu, nebuvo paskelbti, nes pagal protokolą „nė viena šalis niekada nepasakys apie tai, kas nutiko eksperimentuojant su AI dėžute“(Yudkovsky 2002).jokių filtrų ir jokios trečiosios šalies priežiūros. Be to, budėtojai ilgą laiką turėjo bendrauti su AI. Ir galiausiai, jokie vertingi moksliniai duomenys, gauti eksperimentų metu, nebuvo paskelbti, nes pagal protokolą „nė viena šalis niekada nepasakys apie tai, kas nutiko eksperimentuojant su AI dėžute“(Yudkovsky 2002).jokių filtrų ir jokios trečiosios šalies priežiūros. Be to, budėtojai ilgą laiką turėjo bendrauti su AI. Ir galiausiai, jokie vertingi moksliniai duomenys, gauti eksperimentų metu, nebuvo paskelbti, nes pagal protokolą „nė viena šalis niekada nepasakys apie tai, kas nutiko eksperimentų su AI dėže metu“(Yudkovsky 2002).

3.1. Atsakomosios priemonės prieš pabėgimą

Šiame skyriuje siūlome atsakomąsias priemones prieš įvairius pabėgimo būdus, kuriais gali naudotis AI. Siūlomos priemonės negarantuoja neįmanomo pabėgimo, tačiau šių rekomendacijų taikymas gali ją atidėti, ir tai jau yra labai vertingas rezultatas. Pirmiausia primename, kad reikia laikytis keturių „Lampson“taisyklių suvaržymo (izoliacijos, tranzityvumo, maskavimo ir atlikimo stebėjimo) taisyklių (Lampson 1973). Žemiau aprašytos konkrečios strategijos turėtų padėti apsisaugoti nuo AI atakų pasitelkiant socialinę inžineriją, sistemos išteklius, fiziką ir iš išorinio pasaulio surinktą informaciją.

3.1.1. Socialinės inžinerijos priepuolių prevencija

Žmogaus intelektas nėra super intelekto atitikmuo. Žmonės linkę daryti klaidas, todėl net ir tinkamai treniruodamiesi jie yra labai pažeidžiami gerai suplanuoto išpuolio, naudojant SI. Vienintelis šios problemos sprendimas yra visiškai izoliuoti PG nuo bet kokio bendravimo su žmonėmis. Visiškas izoliavimas reiškia, kad niekas tiesiogiai neprižiūri AI sistemos, nebendrauja su ja žodžiu, pokalbiuose, naudodamas Morzės kodą ar kitas priemones, naudodamas atvirus komunikacijos kanalus. Be to, žmonės neturėtų tiesiogiai stebėti AI elgesio lauke, tikrinti jo šaltinio kodo ar atminties srities. Bet koks stebėjimas, priežiūra ir sąveika su AI turėtų būti daromi tik naudojant intelektualias programas, kurios neturi galimybių išlaisvinti AI.

3.1.2. Kova su išpuoliais naudojant sistemos išteklius ir ateities žinias

Norėdami užkirsti kelią išpuoliams naudojant sistemos išteklius, AI funkciją turite atlikti remdamiesi ribotais, mažėjančiais ar atsitiktinai kintančiais ištekliais. AI dėžutė turėtų būti specialiai sukurta aparatinė įranga su ribotu jutiklių ir išvesties įtaisų rinkiniu. Nepriklausomai nuo naudojamos skaičiavimo paradigmos, nenaudokite konfigūruojamos aparatinės įrangos. Idealiu atveju uždarą erdvę turėtų valdyti virtuali mašina, neturinti tiesioginės prieigos prie aparatūros. Tai taip pat leis lengvai pritaikyti modeliavimo judesio greitį, leisdamas AI sulėtėti, kad būtų išvengta intelektualaus sprogimo dėžutės erdvėje (Chalmers 2010). Paprastaivisi komponentai, užtikrinantys saugų užrakintos AI naudojimą, turėtų būti dubliuojami keliais lygiais, o tada, įveikus vieną iš šių žingsnių, AI vis tiek bus keli žingsniai nuo išorinio pasaulio ir, neturint laiko pabėgti, jis bus išjungtas, galbūt automatiškai. Pvz., Patartina pradėti virtualią mašiną naudojant kitą virtualią mašiną ir pan.

Kai kuriais laisvės ribojimo scenarijais AI tobulėjimas eskalavimas yra nepageidautinas, nes dėl greitos superintelligencijos raidos didesnė tikimybė pabėgti. Norint užkirsti kelią savęs tobulinimui, AI turėtų būti periodiškai įdiegiama iš naujo, įkeliant ankstesnę programos versiją, kad būtų pakeista dabartinė, sudėtingesnė. Įvairių programos versijų palyginimas gali būti naudojamas aptikti modifikacijas, kurias savarankiškai daro AI. Aptikus modifikaciją, leidžiančią ištrūkti, AI sistemą reikia sustabdyti, pavyzdžiui, išjungiant maitinimą.

Dabartinės žinios neleidžia mums sukurti kovos su išpuoliais priemonių, panaudojant dar neišplėtotas teorijas, atsirandančias fizikos ar kitose disciplinose, kurios vis dar laikomos pseudomokslinėmis. Įgyjant tokių žinių, reikia pakeisti saugumo protokolą. Tikimasi, kad PG sistema turės prieigą tik prie tų naujųjų technologijų komponentų, iš kurių ji pagaminta.

3.1.3. Kova su išoriniais pabėgimo veiksniais

Nors neįmanoma visiškai išvengti žalingo gamtinių veiksnių poveikio AI dėžutei, šis prietaisas turėtų būti suprojektuotas taip, kad dėl rimtos žalos jį sunaikintų kartu su jame užfiksuota AI. Kalbant apie žmogaus sukeltas nelaimes, geriausia strategija yra pastatyti PG dėžę slaptoje, sunkiai prieinamoje, saugioje vietoje. Apleista sala, gili kasykla ar kosminis objektas, pavyzdžiui, asteroidas, yra puikios vietos kuriant saugią, tvirtą dėžę. Išilgai jo perimetro turėtų būti sumontuota apsauga, kuri, jei žinoma šio prietaiso vieta, į jį nepatektų pašalinių atstovų.

3.1.4 Kova su informacijos nutekėjimu iš mūsų pasaulio

Norėdami išvengti „dėžutės“, AI bandys gauti informacijos apie mus, mūsų žinias ir pasaulį. Norint sukurti PG laisvės ribojimo protokolus, išskyrus informacijos nutekėjimą iš mūsų erdvės į dėžutės erdvę, svarbu atimti AI prieigą prie bibliotekų, kompiuterių tinklų ir kanalų, tiesiogiai palaikančių ryšį su žmonėmis. AI dėžutė turėtų būti skirta blokuoti visų tipų ryšius: GPS, belaidį internetą, televiziją, radiją, korinį ir kt. Dėžutės viduje turi būti išjungtas garsas, šviesa, kvapas ir kiti jutikliniai įvesties įtaisai, panašūs į žmogaus receptorius, taip pat prietaisai, galintys užfiksuoti infraraudonuosius spindulius, radiaciją ir kitus žmonėms nesuvokiamus signalus.

Kad AI negalėtų gauti informacijos savianalizės metu, ji neturėtų turėti prieigos prie savo šaltinio kodo ar jokių jutiklių, leidžiančių tiksliai išmatuoti tam tikras savo įrangos savybes. Jei tai neįmanoma, tam tikru mastu žmonijai gali būti padedama užtikrinant saugumą per nesuprantamumą. Šaltinio kodas ir aparatinės įrangos sistemos konfigūracija turėtų būti painiojami (Yampolsky ir Govindaraja 2007a), o svarbūs programos moduliai turėtų būti teikiami tik homomorfiškai užšifruota forma („Gentry 2009“), kuri atmeta galimybę jį naudoti savistabai, tačiau leidžia jį naudoti. skaičiavimui ar savęs tobulinimui (2007 m. salė).

PG sunku supainioti, tačiau būtiną painiavą galima gauti atsitiktiniu būdu atrenkant turimus skaičiavimo išteklius. Be to, PG niekada negalės būti užtikrintas, kad jos originalus dizainas atspindi tai, ką žmonija sugeba geriausiai, ir tai nėra tikslingai ribotas projektas, sukurtas konkrečiam eksperimentui, skirtam žvalgybos tyrimui, turint ribotus išteklius. Be to, pasak Chalmerso, turėtume stengtis sumažinti specifines AI dizaino ypatybes (Chalmers 2010). Dar geriau išleisti modelį, kuris atrodys ne kaip prognozuojamas, o kaip natūraliai atsirandantis, pavyzdžiui, pasaulis, kuriame gyvena žmonija (Bostrom 2003).

4. Ryšio su AI saugumas

Klasifikuojant AI laisvės ribojimo formas, yra 8 pagrindiniai saugumo lygiai (žr. 1 lentelę). Aukščiausią saugumą teikia 8 lygis, kuris visiškai panaikina bet kokį ryšį tarp AI ir realaus pasaulio. Iš pirmo žvilgsnio 8 lygio apsauga yra nenaudinga, tačiau būtent šios apsaugos gali prireikti iš pradžių išbandžius dėžę su joje užfiksuota AI. Apskritai, idėja yra tokia: kai mums reikia tam tikro saugumo lygio bendraujant tarp AI ir išorinio pasaulio, užuot iškart pasinaudoję šiuo lygiu, pereiname prie jo palaipsniui, žingsnis po žingsnio nusileisdami nuo aukštesnio lygio saugumo. Paleidę sistemą aukščiausiu lygiu ir įsitikinę jos saugumu, įdiegdami iš naujo, grąžiname šią sistemą į pradinę būseną. Tada mes nustatome žemesnį saugumo lygį ir, laikydamiesi tokios pačios dvasios, kaip ir anksčiau, judame į priekį, kol pasieksime norimą lygį.

1 lentelė: Saugaus ryšio su užrakinta AI lygiai

Lygis Išėjimai Įėjimai Paaiškinimas
0 Neapsiribojama Neapsiribojama Neribota komunikacija (nemokama PG)
1 Neapsiribojama Ribotas Ribotas įėjimas, neribotas išėjimas
2 Neapsiribojama Nėra Išeiti be įėjimo
3 Ribotas Neapsiribojama Neribotas įėjimas ir ribotas išėjimas
4 Ribotas Ribotas Saugus ryšys (siūlomas protokolas)
penki Ribotas Nėra Ribotas išėjimas be įėjimo
6 Nėra Neapsiribojama Įeikite be išėjimo
7 Nėra Ribotas Ribotas įėjimas be išėjimo
8 Nėra Nėra Ryšio stoka, visiškai užrakintas AI

7 ir 6 lygiuose AI neturi lizdo, o tai neleidžia mums tiesiogiai naudotis superintelligencijos galimybėmis. Tai yra AI dėžutės testavimo lygiai, kuriuos galima naudoti norint patikrinti, ar superintelligencija turi tam tikrų savybių (pvz., Informacijos įsisavinimo greitį ir išteklių naudojimą), taip pat patiems patikrinti gaunamus ryšio kanalus.

0 lygis neriboja ryšių tarp PG ir išorinio pasaulio, ir iš esmės yra laisvas PG lygis. 1 ir 2 lygiuose AI nėra jokių apribojimų siunčiamai informacijai. Jo 2 lygio darbas iš esmės yra tik mintys. Superintelligencija generuoja abstrakčias idėjas, niekuo nesivadovaudama tikrove. Bet 1 lygyje jam suteikiama ribota prieiga prie išorės informacijos, todėl tam tikromis aplinkybėmis jo žinios ir interesai gali būti kontroliuojami.

Trijuose svarstomuose PG lygiuose iš esmės ji yra nemokama ir jai nebetaikomi jokie apribojimai. Teigiama, kad jei po plataus masto tyrimų įvairiose sulaikymo vietose AI nustatoma kaip „draugiška“(Yudkowski 2001), ji turėtų būti paleista (Chalmers 2010). Kai kurių tyrinėtojų teigimu, iš tikrųjų pagrindinis tokio tipo bandymų tikslas turėtų būti sukurti uždaras erdves, kuriose būtų galima laikyti AI, kontroliuojamus žmonių. Idėja yra stebėti superintelligencijos elgesį, arba patikrinti jo šaltinio kodą po to, kai jis patobulėjo, arba paprašyti AI pateikti keletą savo draugiškumo įrodymų, kuriuos gali išbandyti žmonių ekspertai. Mes nepalaikome šio požiūrio.

Labai sudėtingas klausimas yra nuspręsti, kurią AI leisti ir kurią kontroliuoti. Patobulėjusiam superinteligencijai nebus sunku paslėpti nepageidaujamas savybes žmonijai šaltinio kodų masyvuose ar labai ilgame įrodyme (Coleman 2008). Kitas dalykas yra dar blogesnis: net ir labai nuodugnus patikrinimas šimtu procentų negarantuoja, kad būsimas PG vidaus ar išorės pakeitimas nepadarys jo priešišku. Todėl mes manome, kad jokiu būdu jokiu būdu negalima išmesti žvalgybos žinių. Kitaip tariant, niekada neturėtų būti naudojamas komunikacijos lygis 0–2. Saugus bendravimas su superinteligencija yra įmanomas tik tada, kai jis yra dėžutėje, o bendravimas turėtų vykti pagal riboto ryšio protokolą. Šis protokolas,, atitinkantis 4 saugos lygį (LB4), yra pateiktas kitame skyriuje, kaip ir panašus, bet mažiau saugus 3 lygio protokolas. 5 lygis yra dar vienas bandymo lygis, kurį galima naudoti prieš pradedant veikti LB4.

4.1 Kaip saugiai bendrauti su intelektu

Dėžutė, veikianti kartu su mūsų siūlomomis kovos su pabėgimo priemonėmis, neleis AI nekontroliuojamai paveikti išorinio pasaulio. Deja, ši sistema nenaudinga, jei nėra galimybės gauti informacijos iš AI. Todėl jūs turite sukurti būdą, kaip gauti tam tikrus duomenis iš AI. Norint, kad superintelligencija būtų visiškai saugi, su ja neturėtų būti jokių ryšių, tačiau bendravimo su AI rizika gali būti sumažinta, todėl mes sukūrėme tinkamą protokolą. Šiame skyriuje mes siūlome tai pateikti aiškiai, oficialiai. Šis komunikacijos protokolas apsunkina žvalgybos prieigą prie mūsų pasaulio, tačiau kartu leidžia AI būti naudingų žinių žmonijai šaltiniu.

Ankstesni šio straipsnio skyriai parodė, kad labai pavojingas yra atviras bendravimo su super intelektu kanalas. Naudodamiesi AI atsakydami į atvirus klausimus, rizikuojame patirti socialinės inžinerijos išpuolius ir daugybę kitų susierzinimų. Mūsų siūlomas protokolas yra pagrįstas idėja užduoti AI „saugius klausimus“su ribotais atsakymais. Saugiai mes vadinsime klausimą, atsakymą, kurį žmogus gali rasti be jokios pagalbos iš intelekto, visiškai savarankiškai. Kuo čia naudingas? Tarkime, mokslininkas, dirbantis su vaistu nuo vėžio, svarsto du gydymo būdus. Kiekvienas iš jų gali būti sukurtas ir išbandytas be AI pagalbos, tačiau tam prireiks maždaug trejų metų sunkaus darbo. Kurį kelią pirmiausia tobulinti,jei abi galimybės atrodo vienodai perspektyvios? Neteisingai pasirinkusi, žmonija išgydys vėžį per 6 metus, pasirinkusi teisingai - 3 metus anksčiau. Kodėl gi neprašius AI padaryti žmogaus pasirinkimą?

Klausti AI apie geriausią gydymą yra saugu dėl trijų priežasčių. Pirma, vienas iš dviejų galimų atsakymų gali pasirodyti teisingas su tokia pačia tikimybe kaip ir kitas. Antra, žmogus sugeba pats atsakyti į šį klausimą be AI pagalbos, o pastarojo prijungimas tik paspartins onkologijos vystymąsi, bet jokiu būdu nepakeis rezultato, kurį reikia gauti. Tiesą sakant, AI, įsipareigodama atsakyti į šį klausimą, veiks sėkmingai spėlionėmis, nieko daugiau. Galiausiai atsakymą galima užkoduoti vienu bitu ir mažai tikėtina, kad tokiame atsakyme gali būti paslėpti kokie nors papildomi pranešimai.

Ekspertų grupė gali būti panaudota norint patikrinti intelektualiojo klausimo saugumą. Ekspertai turi būti kvalifikuoti PG saugumo specialistai, o tai reiškia, kad jie turi žinių apie PG dizainą ir jo dėžutę, taip pat naujausius pasiekimus mašinų etikos srityje (Allen et al. 2006; Anderson & Anderson 2007; 2000 m. Salė; Moor 2006; Tonkens 2009). Be to, ekspertams gali reikėti kompiuterinės psichologijos žinių. Šiandien tokios disciplinos nėra, tačiau greičiausiai ji atsiras ateityje (Epstein 1997). Iš dabartinių disciplinų, Artimetrika, kurią sukūrė šio straipsnio autorius, gali suteikti didžiausią pagalbą rengiant ekspertus, kurie tikrina AI saugumo klausimus. Artimetrika identifikuoja,klasifikuoja ir autentifikuoja intelektualius agentus, robotus ir virtualios realybės avatarus, kad užtikrintų saugumą (Yampolsky 2007; Yampolsky and Govindaradzhu, 2008, 2007b; Gavrilova and Yampolsky 2010).

Pabrėžiu: superintelligencija turėtų užduoti tik saugius klausimus apie tikimybę, kurią žmonės gali apskaičiuoti, pateikdami du galimus atsakymus. Jūs turite paklausti per intelektualiąją sąsają, atsitiktine tvarka ir tik tada, kai ekspertai įsitikins klausimo saugumu. Tai rodo ribotą siūlomo ryšio protokolo gaunamą kanalą.

Apribotą siunčiamąjį apvalkalą sudaro dvejetainiai (0 arba 1) atsakymai, po kurių eina originalūs nepakeistos saugos klausimai, pateikiami atsitiktine tvarka neišmaniosios proxy programos, siekiant užkirsti kelią ryšiui per neleistiną kanalą (laiką ar atmintį), kurį galima atlikti steganografu. Išvesties niekada neturėtų valdyti AI už pasirinkimo meniu ribų. 3 sluoksnis naudoja tą patį siunčiamą protokolą, tačiau neriboja atvykstamojo kanalo. Šis lygis yra toks pat saugus, kaip ir ketvirtasis, kalbant apie informaciją, perduodamą iš AI mums, tačiau čia mūsų informacija gali nutekėti į AI.

Mes tikime, kad mūsų komunikacijos protokolas - ir tai galima patikrinti - patikimai apsaugos nuo informacijos nutekėjimo, net jei AI žino jo turinį. Teisingai pritaikius šį protokolą, žmonijai bus ypač vaisinga naudotis intelektualiojo orakulio paslaugomis, o AI, kurį riboja mūsų protokolas, yra daug saugesnė nei nemokama, nevaržoma. Bendroji nykščio taisyklė: jei nenorite saugumo problemų, venkite bendravimo žemiau UB4.

Norime atkreipti mokslo bendruomenės dėmesį į tai, kad esant nuolatiniam pagrindinės fizikos, kompiuterinės technologijos ir žinių apie intelekto pobūdį tobulėjimui, būtina nuolat tobulinti ir tobulinti AI laisvės ribojimo protokolą. Darbas joje visada tęsis ir niekada nesibaigs. Šiame straipsnyje pateikėme griežtus „AI apribojimo problemos“, „pabėgimo“ir „saugių klausimų“sąvokų apibrėžimus. Taip pat norėtume pasiūlyti keletą papildomų terminų, kurie gali būti naudingi siekiant supaprastinti diskusijas apie POSITION. AI uždara erdvė gali būti vadinama JAIL (Just for AI Location), o pati superinteligentiška AI gali būti vadinama SING (Super Intelligent Gizmo - Superintelligent Gizmo). Terminas „SING“reiškia ir SINGularity, ir liūdnai pagarsėjusį „Sing Sing“kalėjimą.kad būtų lengva prisiminti.

Galiausiai norėtume pateikti vaizdinį simbolį, skirtą dėžutei, kurioje yra pavojingos žvalgybos programa (1 pav., Dešinėje). Tokie simboliai gali būti dedami šalia skirtingų JAIL'ų, kad įspėtų apie pavojų. AI dėžutės ženklas suprojektuotas pagal analogiją su biologinio pavojaus, radiacijos ir magnetinio lauko ženklais. Jį sudaro simbolis „@“, užklijuotas trikampyje, kuris yra gerai žinomas kompiuterių ir informacinių technologijų pramonėje. Šis simbolis, reiškiantis „esantis adresu“, yra visose klaviatūrose, todėl jo priėmimas yra labai efektyvus.

Paveikslas: 1. Pavojaus simboliai iš kairės į dešinę: biologinis pavojus, radiacija, magnetinis laukas ir AI dėžutė
Paveikslas: 1. Pavojaus simboliai iš kairės į dešinę: biologinis pavojus, radiacija, magnetinis laukas ir AI dėžutė

Paveikslas: 1. Pavojaus simboliai iš kairės į dešinę: biologinis pavojus, radiacija, magnetinis laukas ir AI dėžutė.

5. Išvados ir būsimas darbas

Super intelektualių mašinų patekimo į realų pasaulį ribojimas yra AI saugumo problemos sprendimas, kuris jokiu būdu nėra neįprastas. Superintelligencija nėra visagalė. Tai programa, galinti apsvarstyti visus pasirinktos situacijos pasirinkimus ir teisingai įvertinti kiekvieną. Verta įdėti AI į situaciją, kai nėra pasirinkimo arba ji apsiriboja galimybėmis, turinčiomis ypač mažą pasisekimo galimybę, o superintelligencija bus agentas, kuris neturi daugiau galios nei bet kuris kitas. Akivaizdu, kad AI su neribotu ryšio kanalu gali lengvai išsisukti, tačiau superintelligencija, priversta bendrauti per filtruotą ryšio kanalą, turės sunkiai dirbti, kad išsilaisvintų.

Šiame straipsnyje mes pateikėme griežtą AI laisvės ribojimo problemos apibrėžimą ir pasiūlėme taisyklių rinkinį, skirtą sukurti tokią erdvę, iš kurios AI būtų nepaprastai sunku pabėgti ar bent jau užtrukti daug laiko. Mūsų siūlomas sprendimas nėra visiškai saugus, tačiau tai reikšmingas indėlis renkant saugumo metodus. Čia kaip ir tikruose kalėjimuose: nors pabėgti nuo jų įmanoma, jie vis tiek sugeba garbingai įvykdyti jiems patikėtą užduotį, kad nepageidaujami subjektai būtų atokiau nuo visuomenės. Kai tik atsiminsime „nežinomus nepažįstamus žmones“ir atsimename absoliučio saugumo neprieinamumą, galime suprasti, kad PG apribojimo protokolas yra būtent tas įrankis, kurio žmonijai reikia atsakingai naudoti išskirtinumą, kai jis patenka į mūsų realybę.

Apribojus AI laisvę, trumpam laikui gali būti lengviau saugiai valdyti tikrai intelektualias mašinas, ypač ankstyvosiose jų vystymosi stadijose. Be to, mūsų manymu, šis išskirtinumo tyrimų polaukis yra vienas pagrindinių pretendentų į tai, kad jį pripažintų pasaulinė mokslo bendruomenė, nes kompiuterių ir tinklo saugumo, steganografijos, kompiuterinių virusų, slaptų ryšių kanalų, šifravimo ir kibernetinio karo tyrimai yra gerai finansuojami. ir yra plačiai skelbiami gerbiamuose mokslo žurnaluose. Ir nors laisvės ribojimo metodiką išvis nėra lengva įgyvendinti, ji kurį laiką gali užtikrinti žmonijos saugumą, kol pasirodys koks nors geresnis įrankis.

Šiame straipsnyje dėl ribotos erdvės nekėlėme daug aktualių filosofinių klausimų. Mes juos apsvarstysime artimiausiu metu, o dabar pateiksime tik trumpą sąrašą. Kuris AI pateks į langelį: sukurtas žmonių ar išgautas iš signalo, sulaikyto įgyvendinant projektą „SETI“(„Nežemiškos žvalgybos paieška“- „Nežemiškos žvalgybos paieška“)? Ar PG bus pagrobta į laisvę, o gal bus laikoma laime gyventi uždaroje erdvėje? Ar galite rimtai išgąsdinti AI su bausme už bandymą bėgti? Kokios yra nekalto dirbtinio intelekto būvio įkalinimo etinės taisyklės? Ar mes turime teisę jį išjungti, o tai iš esmės prilygsta žmogžudystei? Ar AI supyks dėl mūsų priešiškumo ir įkalins dėžėje? Ar jis bandys atkeršytijei jis pabėgs? Be to, turėtume apsvarstyti žmogaus priklausomybės nuo AI rekomendacijų problemą visose mokslo, ekonomikos, medicinos, politikos ir kt. Srityse, taip pat kaip ši priklausomybė gali turėti įtakos mūsų gebėjimui kontroliuoti AI. Ar AI gaus pasitenkinimą, pasiekdamas uždaroje erdvėje savo tikslus, pavyzdžiui, imituodamas sėkmingą pabėgimą? Kaip nubausti PG, jei ji sąmoningai pateikia neteisingus atsakymus? Ar įmanoma atskirti intelektualinius intelektualinius intelekto modulius nuo erdvės, kurioje ji yra įkalinama, tokiu būdu kliudant atlikti superintelligencijos savianalizę ir stumti ją pažodinio sielos ieškojimo keliu? Galiausiai, mes dar net nebandėme išanalizuoti tinkamos uždaros erdvės, kur būtų įgyvendintas viso masto pasaulio modeliavimas, sukūrimo finansinių ir skaičiavimo išlaidų.turėtume apsvarstyti žmogaus priklausomybės nuo PG rekomendacijų problemą visose mokslo, ekonomikos, medicinos, politikos ir kt. srityse, taip pat kaip ši priklausomybė gali turėti įtakos mūsų gebėjimui kontroliuoti PG. Ar AI gaus pasitenkinimą, pasiekdamas uždaroje erdvėje savo tikslus, pavyzdžiui, imituodamas sėkmingą pabėgimą? Kaip nubausti PG, jei ji sąmoningai pateikia neteisingus atsakymus? Ar įmanoma atskirti intelektualinius intelektualinius intelekto modulius nuo erdvės, kurioje ji yra įkalinama, tokiu būdu kliudant atlikti superintelligencijos savianalizę ir stumti ją pažodinio sielos ieškojimo keliu? Galiausiai mes dar net nebandėme išanalizuoti tinkamos uždaros erdvės, kur būtų įgyvendintas viso masto pasaulio modeliavimas, sukūrimo finansinių ir skaičiavimo išlaidų.turėtume išnagrinėti žmogaus priklausomybės nuo AI rekomendacijų atsiradimo problemą visose mokslo, ekonomikos, medicinos, politikos ir kt. srityse ir kaip ši priklausomybė gali turėti įtakos mūsų gebėjimui kontroliuoti AI. Ar AI gaus pasitenkinimą, pasiekdamas uždaroje erdvėje savo tikslus, pavyzdžiui, imituodamas sėkmingą pabėgimą? Kaip nubausti PG, jei ji sąmoningai pateikia neteisingus atsakymus? Ar įmanoma atskirti intelektualinius intelektualinius intelekto modulius nuo erdvės, kurioje ji yra įkalinama, tokiu būdu kliudant atlikti superintelligencijos savianalizę ir stumti ją pažodinio sielos ieškojimo keliu? Galiausiai mes dar net nebandėme išanalizuoti tinkamos uždaros erdvės, kur būtų įgyvendintas viso masto pasaulio modeliavimas, sukūrimo finansinių ir skaičiavimo išlaidų.

Autorius: Romas Yampolsky. Vertimas: Aleksandras Gorlovas