Ar „trys Robotikos įstatymai“mus Apsaugos? - Alternatyvus Vaizdas

Turinys:

Ar „trys Robotikos įstatymai“mus Apsaugos? - Alternatyvus Vaizdas
Ar „trys Robotikos įstatymai“mus Apsaugos? - Alternatyvus Vaizdas

Video: Ar „trys Robotikos įstatymai“mus Apsaugos? - Alternatyvus Vaizdas

Video: Ar „trys Robotikos įstatymai“mus Apsaugos? - Alternatyvus Vaizdas
Video: Ekskursija į Robotikos mokyklą! 2024, Balandis
Anonim

Praėjo 50 metų, kai Izaokas Asimovas sugalvojo savo garsiuosius tris robotikos įstatymus - taisyklių rinkinį, kurio privalo laikytis kiekvienas save gerbiantis robotas. Nors iš pradžių tai buvo tik literatūrinis įrenginys, trys įstatymai tapo originaliu receptu, kaip išvengti „robotokalipsės“. Laimei, yra ekspertų, kurie nori įsitikinti, ar Azimovo garantijos laikėsi laiko išbandymu. Deja, visi jie sako „ne“.

- „Salik.biz“

Pirmiausia prisiminkime tuos pačius tris įstatymus:

Robotas negali pakenkti asmeniui ar dėl savo neveikimo leisti pakenkti asmeniui.

Robotas turi paklusti visiems žmogaus įsakymams, išskyrus tuos atvejus, kai šie įsakymai prieštarauja Pirmajam įstatymui.

Robotas privalo rūpintis savo saugumu tiek, kiek jis neprieštarauja Pirmajam ir Antrajam įstatymams.

Vėliau Azimovas pridėjo ketvirtąjį arba nulio įstatymą, kuris pirmumo tvarka turėjo viršenybę prieš kitus:

Reklaminis vaizdo įrašas:

0. Robotas negali pakenkti asmeniui, nebent jis gali įrodyti, kad galiausiai jis bus naudingas visai žmonijai.

Image
Image

Asimovo fantastinėje visatoje beveik visi robotai turėjo laikytis šių įstatymų. Tai nebuvo tik pasiūlymai ar gairės - įstatymai buvo integruoti programinėje įrangoje. Be to, šių taisyklių negalima apeiti, perrašyti ar pataisyti.

Kaip parodė pats Asimovas, šių įstatymų trūkumai, spragos ir neaiškumai dažnai lėmė keistą ir nelogišką robotų elgesį. Įstatymai buvo pernelyg neaiškūs ir dažnai negalėjo apibrėžti ir atskirti „žmonių“nuo „robotų“. Be to, robotai galėjo nesąmoningai sulaužyti įstatymus, jei jiems nebuvo suteikta visa informacija. Taip pat pernelyg klastingam robotui ar dirbtiniam intelektui teko patirti spaudimą neperprogramuoti jo šerdies.

Metai yra 2014 metai, ir daug kas įprasto mūsų gyvenimo iki praėjusio šimtmečio fantazijų gali atrodyti tiesioginė fantazija. Daugelis žmonių manė, kad Asimovo įstatymai turėjo likti kaip literatūrinė priemonė. Bet pats Azimovas 1981 m. Pažymėjo, kad jo įstatymai gali veikti. Skaičiuok! jis nurodė:

„Kai kas nors manęs paklausia, kaip būtų, jei mano trys robotikos dėsniai iš tikrųjų būtų naudojami apibrėžti robotų elgesį, atsakymas yra paruoštas. Žinoma, su sąlyga, kad robotai yra pakankamai lankstūs ir universalūs, kad galėtų elgtis skirtingai. Mano atsakymas yra taip: trys įstatymai yra vienintelis būdas žmonėms bendrauti su robotais ar bet kuo kitu.

Beveik po trisdešimties metų mes priartėjome prie realybės, kurioje turėsime robotus - arba, tiksliau, dirbtinį intelektą, kuris juos valdo, - pakankamai lanksčius ir universalius skirtingiems elgesio kursams. Lieka tik laiko klausimas: kada mašina visais atžvilgiais pranoksta žmogų, pradedant fizine jėga ir baigiant vaizduotės galia.

Bauginantis dalykas yra tas, kad klaidų praktiškai nėra. Jei dirbtinis super intelektas yra blogai užprogramuotas ar abejingas žmonėms, tai sukels nelaimę. Turime įsitikinti, kad dirbtinis intelektas yra saugus, jei norime išgyventi jo atsiradimą “.

Atsakykite į klausimą "ar trys Azimovo įstatymai gali padėti?" Perėmė du dirbtinio intelekto teoretikai: Benas Herzelis („Aidyia Holdings“) ir Luisas Helmas, Mašinų intelekto tyrimų instituto (MIRI) direktoriaus pavaduotojas ir žurnalo „Rockstar Research“vykdomasis redaktorius. Pasikalbėjus su jais paaiškėjo, kad Asimovo įstatymai apskritai negali susitvarkyti su jiems paskirta užduotimi, ir jei mums reikės sukurti saugią AI, turėsime sukurti ką nors visiškai kitokio.

Asim ateitis?

Image
Image

Pokalbis su Herzeliu ir Helmu prasidėjo tuo, ko Asimovas neklydo, numatė ateitį ir kur suklydo.

„Manau, kad Asimovo įsivaizduojami robotai bus įmanomi artimiausiu metu“, - atsako Herzelis. - Vis dėlto daugumoje savo išgalvotų pasaulių rašytojas padarė prielaidą, kad humanoidiniai robotai bus robotikos ir dirbtinio intelekto inžinerijos viršūnė. Tai mažai tikėtina. Labai greitai, pasiekus Azimovo robotų statusą, bus galima sukurti dirbtinį super intelektą ir super robotus “.

Taigi, tipiškas ateities pasaulis Asimovo istorijose apie robotus, pasak Herzelio, bus panašus į tą, kuriame gyvename šiandien, tačiau su išmaniaisiais robotais, einančiais gatvėmis.

"Mažai tikėtina, kad tai įvyks, ir jei tai įvyks, jis nebus atidėtas ilgai."

„Helm“robotai atrodo visiškai skirtingi.

„Pagrindinis klausimas, kuris, mano manymu, bus pats svarbiausias žmonijai, išlieka ne milžiniškos daugybės pusiau intelektualių humanoidų moralinis reguliavimas, bet galiausiai pažangių dirbtinio intelekto formų (bet kuriame kūne) vystymas. Šis super intelekto vystymasis yra filtras, kurį žmonija turi praeiti. Štai kodėl taip svarbu sukurti šio perėjimo saugumo strategiją. Man atrodo visiškai keista, kad robotai, androidai ar „emuliacijos“egzistuos dešimt ar daugiau metų, kol žmonija susidurs su realia superintellekto mašinų etikos kūrimo problema “.

Gera pradžia?

Image
Image

Atsižvelgiant į tai, kad trys Asimovo robotikos įstatymai buvo pirmasis nuoširdus bandymas išspręsti labai rimtą problemą - dirbtinio super intelekto mašinų saugaus elgesio problemą, verta ieškoti tų momentų, kuriuose įstatymai vis dar gali būti veiksmingi (ar bent jau įkvepiantys).

„Tiesą sakant, aš nerandu įkvėpimo šiuose trijuose robotikos įstatymuose“, - sako Helmas. - Mašinų etikos esmė yra ta, kad jos neatitinka mašinų etikos pagrindų. Galbūt trys robotikos dėsniai yra plačiai žinomi, tačiau iš tikrųjų nenaudinga juos naudoti kaip pagrindą programavimui “.

„Dėl tam tikrų priežasčių geros etikos sistema, vadinama deontologija, tapo nepatikimu etikos pagrindu. Yra nemažai filosofų, kurie bando išspręsti deontologijos problemas, tačiau didžiąja dalimi tai yra tie patys žmonės, kurie siekia „intelektualaus dizaino“ir „dieviškosios intervencijos“. Niekas jų nežiūri rimtai “.

Trijų Asimovo robotikos dėsnių trūkumai yra šie:

Priešingo pobūdžio

Remiantis pasenusia etikos teorija (deontologija)

Net nedirbkite grožinės literatūros

Herzel sutinka:

„Trijų įstatymų tikslas buvo juos įdomiai sulaužyti; Štai kodėl jų istorijos yra ypač linksmos. Todėl trys įstatymai gali likti tik moraliniu pavyzdžiu, kaip to nedaryti. Jei imsimės jų kaip pagrindo, neišvengiamai atsiras spragų “.

Herzel mano, kad iš tikrųjų šie įstatymai neveiks, nes jų dalyvavimo sąlygos yra dviprasmiškos ir tebėra aiškinimo objektas - vadinasi, jos yra labai priklausomos nuo vertėjų.

Išankstinė nuostata prieš robotus?

Kitas Trijų įstatymų akivaizdaus šovinizmo aspektas (ir galimas trūkumas) yra prielaida, kad robotai turėtų išlikti nepaisant savo pranašesnės galios, pavaldūs žmonėms, žmogaus poreikiams ir prioritetams.

„Azimovo ateities visuomenę sudaro tik šovinistai: žmonės turi daug daugiau teisių nei robotai. Trys robotikos įstatymai buvo sukurti palaikyti tokią socialinę tvarką “.

Image
Image

Helmas į šią problemą žvelgia šiek tiek kitaip, teigdamas, kad jei atsidursime tokioje situacijoje, tai savaime bus įrodymas, kad mes nuėjome per toli.

„Manau, kad neprotinga būtų suprojektuoti dirbtinio intelekto sistemą arba savimonę kuriantį robotą. Ir skirtingai nuo filmų ar knygų, kuriose dirbtinio intelekto kūrėjai „atsitiktinai“patenka į intelektualias mašinas, netikiu, kad taip gali nutikti realiame gyvenime. Tam prireiks per daug pastangų ir žinių. Ir dauguma AI dizainerių yra etiškai taupūs žmonės, todėl jie vengs kurti tai, ką filosofai vadina „moraliai reikšmingomis būtybėmis“. Ypač tada, kai jie gali lengvai sukurti pažangų aparatą, neturintį etinių polinkių “.

Helmas nesijaudina dėl būtinybės sukurti asimetrinius įstatymus, kad būtų galima valdyti robotų vertę prieš žmones, teigdamas (ir tikėdamasis), kad būsimi dirbtinio intelekto kūrėjai remsis tam tikrais etiniais apribojimais.

Aš manau, kad žmonės yra sudaryti iš atomų, todėl teoriškai inžinierius gali sukurti sintetinę gyvybės formą arba robotą, turintį moralinę prasmę. Norėčiau galvoti, kad niekas to nepadarys. Manau, dauguma žmonių taip pat daro. Bet neišvengiamai atsiras kvailys, kuris nori būti žinomas kaip pionierius, net jei jis yra neetiškas ir kvailas “.

Trys robotikos 2.0 įstatymai?

Atsižvelgiant į akivaizdžius trijų Asimovo robotikos įstatymų trūkumus, „io9“šaltinyje kilo klausimas: ar juos galima ištaisyti ar patobulinti? Tiesą sakant, daugelis mokslinės fantastikos rašytojų tai yra bandę daugybę kartų, keisdami tai metams bėgant.

„Ne“, - sako Helmas. "Trims įstatymams nėra pataisų."

Be prieštaringo pobūdžio, įstatymai taip pat yra prieštaringi.

„Aš palaikau mašinų etikos metodus, kurie yra labiau bendradarbiaujantys, nuoseklesni ir normatyvesni, o tai reiškia, kad jie gali atsigauti po nesusipratimų ar ištaisyti neteisingą programavimą“.

Herzelis pakartoja Helmo teiginius.

Apibrėžti etinių nurodymų rinkinį kaip mašinos etikos pagrindą bus beviltiška, jei mašina bus pagrįsta lanksčiu bendru dirbtiniu intelektu. Jei jis suprantamas kaip intuityvus, lankstus, adaptyvus ar etiškas - šiame kontekste etiniai nurodymai bus naudingi sistemai tik kaip apytikslė rekomendacija, kaip pritaikyti savo etinę intuiciją. Tačiau šiuo atveju įsakymai taps ne etinės sistemos pagrindu, o tik aspektu. Tai galima pastebėti žmonių pavyzdžiuose - etiniai principai, kuriuos studijuojame, veikia, bet nėra kaip gairės, jie tik stumia mūsų intuiciją ir etinius instinktus. Mes praktiškai nepriklausome nuo etikos principų “.

Kaip sukurti saugų dirbtinį intelektą?

Atsižvelgiant į teisinio požiūrio netinkamumą, galite paklausti Gertzelio ir Helmo apie šiuolaikinius „saugios PG“problemos sprendimo būdus.

„Labai nedaug bendrojo dirbtinio intelekto tyrinėtojų mano, kad įmanoma sukurti visiškai saugią sistemą“, - sako Herzelis. "Tačiau tai netrukdo daugumai, nes šiame gyvenime nieko negalima garantuoti."

Herzel mano, kad sukūrę bendrą dirbtinio intelekto sistemą ar jos embrioną, galime atlikti tyrimus ir eksperimentus, kurie mums apie AI etiką pasako daug daugiau, nei mes žinome.

„Tikimės, kad tokiu būdu galėsime suformuluoti geras dirbtinio intelekto etikos teorijas, kurios leis mums įsigilinti į šią temą. Tačiau dabar gana sunku teoruoti apie AI etiką, nes mes neturime tik gerų teorijų, visai neturime teorijų.

„Žmonėms, stebėjusiems per daug terminatorių, dirbtinio intelekto kūrimo procesas gali atrodyti bauginantis, nes jiems trūksta žodžio„ primityvus “. Tačiau radikaliausi pokyčiai įvyko tokiu būdu “.

"Kai grupė protingų urvininkų sugalvojo kalbą, jie nesitikėjo, kad bus sukurta tvirta oficiali kalbos teorija, galinti padėti numatyti būsimus pokyčius, kuriuos sukelia kalbos atsiradimas visuomenėje".

Prieš svarstant kitų „trijų įstatymų“kūrimą kaip techninę problemą, turite atlikti daug tyrimų. Štai ir Helmas ir Herzelis sutaria.

„Mano kolega iš MIRI Luc Muelhauser apibendrino mūsų samprotavimus taip. Jis sakė, kad problemos dažnai pereina nuo filosofijos prie matematikos, o vėliau prie inžinerijos. Filosofijai dažnai užduodami teisingi klausimai, tačiau pačiu nepraktiškiausiu būdu. Niekas negali tvirtai pasakyti, ar buvo padaryta pažanga sprendžiant problemą. Jei svarbias filosofines priežasties, identifikavimo ir vertės problemas galime performuluoti į tikslias formules, kurias gali pritaikyti matematikas, tada galima sukurti tam tikrą modelį. Vieną puikią dieną tai ateis į inžineriją “.

Helmui ši problema yra sudėtinga mokslui ir filosofijai, tačiau pažanga įmanoma.

„Aš skeptiškai vertinu, ar filosofija sugebės išspręsti problemą, dėl kurios kovojama daugiau nei 3000 metų. Bet mes taip pat negalime imtis ir pradėti kurti matematinių modelių klausimų, kurių techniškai nėra. Mums vis dar reikia daug teorinių ir net praktinių pokyčių “.

Rekomenduojama: