Pavojinga žmonijai: Kodėl Mums Reikia Intelekto Dirbtinio Intelekto? - Alternatyvus Vaizdas

Turinys:

Pavojinga žmonijai: Kodėl Mums Reikia Intelekto Dirbtinio Intelekto? - Alternatyvus Vaizdas
Pavojinga žmonijai: Kodėl Mums Reikia Intelekto Dirbtinio Intelekto? - Alternatyvus Vaizdas
Anonim

Kai 1950 m. Kibernetikos tėvas Norbertas Wieneris parašė savo knygą „Žmogaus panaudojimas žmonėms“, vakuuminiai vamzdeliai vis dar buvo pagrindiniai elektroniniai elementai, o iš tikrųjų darbe buvo tik keli kompiuteriai. Tačiau jis ateities, kurią mes dabar matome, neregėtai tiksliai įsivaizdavo, klaidindamas tik nereikšmingas detales.

Prieš bet kurį kitą dirbtinio intelekto filosofą jis suprato, kad PG ne tik imituos ir pakeis žmones įvairiais intelektiniais veiksmais, bet ir pakeis žmones. „Mes tiesiog sūkuriniai baseinai nuolat tekančio vandens upėje“, - rašė jis. "Mes nesame kažkas, kas tiesiog gyvena, mes esame modeliai, kurie įamžina save."

- „Salik.biz“

Pavyzdžiui, kai atsiranda daug viliojančių galimybių, mes norime susimokėti ir sutikti su nedidelėmis verslo valdymo išlaidomis, kad galėtume naudotis naujomis galimybėmis. Ir labai greitai mes tampame priklausomi nuo naujų įrankių, prarandame galimybę egzistuoti be jų. Pasirinkimai tampa būtini.

Tai labai sena evoliucijos istorija, ir daugelis jos dalių yra gerai žinomi. Dauguma žinduolių gali sintetinti savo vitaminą C, tačiau vaisius valgantys primatai prarado šį vidinį sugebėjimą. Pasikartojantys modeliai, kuriuos mes vadiname žmonėmis, dabar priklauso nuo drabužių, perdirbto maisto, vitaminų, švirkštų, kreditinių kortelių, išmaniųjų telefonų ir interneto. O rytoj, jei ne šiandien, tai iš dirbtinio intelekto.

Wieneris numatė keletą šios padėties problemų, į kurias Alanas Turingas ir kiti ankstyvieji AI optimistai iš esmės nekreipė dėmesio. Pasak jo, tikroji grėsmė buvo:

… yra tas, kad tokias mašinas, būdamos bejėgės, žmonės gali naudoti arba blokuoti žmones, kad padidintų savo likusios rasės kontrolę, arba politiniai lyderiai gali bandyti perimti savo gyventojų kontrolę politiniais metodais, o ne patys aparatai, kaip siauras ir abejingas žmogui, tarsi būtų išrastas mechaniškai.

Akivaizdu, kad šie pavojai dabar yra labai aktualūs.

Pvz., Žiniasklaidoje skaitmeninio garso ir vaizdo naujovės leidžia mums sumokėti nedidelę kainą (garso įrašų ir kino kūrėjų akimis), kad nutoltų nuo analoginių formatų, o mainais gauna ypač paprastą - per paprastą - įrašų leidimo būdą beveik be jokių apribojimų.

Reklaminis vaizdo įrašas:

Image
Image

Tačiau yra didžiulė paslėpta kaina. Orwello tiesos tarnavimas tapo realia galimybe. AI metodai, skirti sukurti beveik niekuo neišsiskiriančius netikrus „įrašus“, padaro įrankius, kuriuos mes naudojome tyrimams, pasenusius per pastaruosius 150 metų.

Mes tiesiog turime atsisakyti trumpos fotografijos įrodymų eros ir grįžti į tą seną pasaulį, kuriame žmogaus atmintis ir pasitikėjimas buvo aukso etalonas. Arba galime sukurti naujus gynybos ir puolimo metodus kovoje už tiesą. Vienas įdomiausių pastarojo meto pavyzdžių yra tai, kad sunaikinti reputaciją yra daug pigiau, nei uždirbti ir apsaugoti tą pačią reputaciją. Wieneris šį reiškinį matė labai plačiai: „Ilgainiui nebus skirtumo tarp ginkluoti save ir ginkluoti priešą“. Informacijos era taip pat tapo dezinformacijos era.

Ką mes galime padaryti? Svarbiausia yra tas pats Wienerio pastebėjimas, kad „šios mašinos“yra „pačios bejėgės“. Mes kuriame įrankius, o ne kolegas, o reali grėsmė yra tai, kad nematome skirtumo.

Dabartinis dirbtinis intelektas parazituoja žmogaus intelektu. Jis labai nerimtai pasisavina viską, ką sukūrė žmonių kūrėjai, ir piešia modelius, įskaitant slapčiausius mūsų įpročius. Šios mašinos dar neturi tikslų ar strategijų, nėra pajėgios savikritikos ir naujovių, jos tik tyrinėja mūsų duomenų bazes, be savo minčių ir tikslų.

Jie, kaip sako Wieneris, yra bejėgiai ne ta prasme, kad yra grandininiai ar imobilizuoti, ne, jie visai nėra agentai - jie neturi galimybių „veikti iš priežasčių“, kaip pasakytų Kantas.

Ilgainiui „stiprus PG“arba bendrasis dirbtinis intelektas iš principo yra įmanomas, tačiau nepageidautinas. Šiandien dar labiau apribota AI nebus bloga. Bet tai kelia grėsmę - iš dalies todėl, kad ją galima suklysti su galinga PG.

Kiek šiandien yra dirbtinis intelektas?

Atotrūkis tarp šių dienų sistemų ir mokslinės fantastikos sistemų, užplūstančių populiarią vaizduotę, vis dar yra didžiulis, nors daugelis žmonių, tiek mėgėjai, tiek profesionalai, linkę tai nuvertinti. Pažvelkime į „IBM Watson“, kuris mūsų laikais gali būti gerbiamas.

Šis superkompiuteris yra labai didelio masto mokslinių tyrimų ir plėtros (tyrimų ir plėtros) proceso, kuriame dalyvavo daugybė žmonių ir intelekto modeliai per daugelį amžių, rezultatas, jis sunaudoja tūkstančius kartų daugiau energijos nei žmogaus smegenys. Jo pergalė Jeopardy! buvo tikras triumfas, kurį įgalino formuluotiniai Jeopardy! taisyklių suvaržymai, tačiau, kad jis galėtų dalyvauti, jos turėjo būti patikslintos. Turėjau atsisakyti šiek tiek universalumo ir įtraukti žmoniškumą, kad padaryčiau pasirodymą.

„Watson“yra bloga įmonė, nepaisant klaidinančių „IBM“skelbimų, kurie žada AI pokalbio sugebėjimus abiem lygiais, o „Watson“pavertimas patikimu įvairiapusiu agentu būtų panašus į „Watson“skaičiuotuvą. Watsonas gali būti geras tokio agento skaičiavimo atvejis, veikiau smegenys ar amygdala, o ne protas - geriausiu atveju specialios paskirties posistemis, tarnaujantis kaip atrama, bet ne šiaip sau sistema planuojant ir formuluojant tikslus, remiantis gauta pokalbio patirtimi.

Kodėl norėtume iš Watsono sukurti mąstantį ir kūrybingą agentą? Galbūt nuostabi Turingo idėja - garsusis Turingo testas - įviliojo mus į spąstus: mes buvome apsėsti, kad sukurtume bent jau priešais ekraną sėdinčio tikro žmogaus iliuziją, apeidami „grėsmingą slėnį“.

Pavojus yra tas, kad nuo tada, kai Turingas pateikė savo užduotį, kuri visų pirma buvo užduotis suklaidinti teisėjus, AI kūrėjai bandė tai įvykdyti naudodami juokingas humanoidines lėles, „animacinių filmų“versijas, kurios sužavės ir nuginkluos netyčiukus. ELIZA, sukurta Joseph Weisenbaum, pati pirmoji pokalbių programa, buvo puikus tokios iliuzijos sukūrimo pavyzdys, tačiau naudojant nepaprastai paprastą algoritmą, kuris galėtų įtikinti žmones, kad jie nuoširdžiai ir nuoširdžiai bendrauja su kitais žmonėmis.

Jam rūpėjo, kaip lengvai žmonės nori tuo patikėti. Ir jei ką nors išsiaiškinome iš kasmetinio „Lebner Prize“riboto Turingo testo, tai yra tai, kad net patys protingiausi žmonės, neišmanantys kompiuterio programavimo, lengvai patenka į šiuos paprastus triukus.

AI žmonių požiūris į tokią techniką svyruoja nuo sprendimo priėmimo iki apdovanojimo ir sutariama, kad šie triukai nėra labai gilūs, tačiau gali būti naudingi. Labai palankiai vertinamas požiūrio pokytis būtų nuoširdus pripažinimas, kad lėlėmis dažyti androidai yra melagingos reklamos, kurias reikėtų smerkti, o ne skatinti.

Kaip to galima pasiekti? Kai suprasime, kad žmonės pradeda priimti sprendimus dėl gyvenimo ir mirties, vykdydami AI sistemų „patarimus“, kurių vidinės operacijos yra beveik nesuprantamos, pamatysime gerą priežastį tiems, kurie ragina žmones pasitikėti tokiomis sistemomis, pradėti remtis moralės ir įstatymų normomis.

Dirbtinio intelekto sistemos yra labai galingos priemonės. Toks galingas, kad net ekspertai turi svarią priežastį nepasitikėti savo vertinimu, kai yra „sprendimai“, kuriems atstovauja šios priemonės. Bet jei šie priemonių vartotojai naudos finansinę ar kitokią naudą iš šių priemonių populiarinimo, jie turi įsitikinti, kad žino, kaip tai padaryti visiškai atsakingai, maksimaliai kontroliuodami ir pagrįsdami.

Tokių sistemų operatorių licencijavimas ir patvirtinimas - kaip ir mes licencijuojame vaistininkus, kranų operatorius ir kitus specialistus, kurių klaidos ir klaidingi sprendimai gali sukelti skaudžių padarinių - galbūt, remiant draudimo bendrovėms ir kitoms organizacijoms, įpareigoti AI sistemų kūrėjus nuveikti ilgą kelią ieškoti savo produktų trūkumų ir trūkumų, taip pat mokyti tuos, kurie ketina dirbti su jais.

Galima įsivaizduoti savotišką atvirkštinį Turingo testą, kurio metu teisėjas bus vertinamas; kol jis suras silpnumą, ribų pažeidimą, spragas sistemoje, jis negaus licencijos. Norint gauti pažymėjimą, tokiam teisėjui reikės rimtų mokymų. Noras priskirti objektui žmogaus sugebėjimą mąstyti, kaip mes dažniausiai darome susitikdami su intelektualiu agentu, yra labai, labai stiprus.

Iš tikrųjų sugebėjimas atsispirti norui pamatyti ką nors humanizuoto yra keistas dalykas. Daugelis žmonių mano, kad tokio talento puoselėjimas yra abejotinas, nes net patys pragmatiškiausi sistemos vartotojai kartais „draugiškai“vertina savo įrankius.

Nepaisant to, kaip kruopščiai AI dizaineriai pasirenka siekdami pašalinti netikrus „žmogiškuosius“perdegimus savo gaminiuose, turėtume tikėtis, kad etiketės, apeiti variantai ir toleruojami tikrojo abiejų sistemų ir jų operatorių „supratimo“iškraipymai. Lygiai taip pat, kaip per televiziją reklamuojami vaistai, turintys ilgą šalutinių reiškinių sąrašą, arba alkoholis reklamuojamas be galo mažais šriftais su visais įstatymų reikalaujamais įspėjimais, taigi dirbtinio intelekto kūrėjai laikysis įstatymų, tačiau perspėja.

Kodėl mums reikia dirbtinio intelekto?

Mums nereikia dirbtinai sąmoningų agentų. Yra daugybė natūralių sąmoningų veiksnių, kurių pakanka bet kokioms užduotims atlikti specialistams ir privilegijuotiems asmenims. Mums reikia išmaniųjų įrankių. Įrankiai neturi teisių ir neturi turėti jausmų, kurie gali būti sužeisti ar netinkamai naudojami.

Viena iš priežasčių nedaryti dirbtinai sąmoningų agentų yra ta, kad nors jie gali tapti savarankiški (ir iš esmės jie gali būti tokie patys savarankiški, save tobulinantys ar kuriantys save kaip bet kuris asmuo), jie neturėtų - be specialaus leidimo - dalintis su mūsų natūralūs sąmoningi agentai, mūsų pažeidžiamumas ar mirtingumas.

Danielis Dennettas, Tufto universiteto filosofijos profesorius, kartą metė iššūkį studentams dirbtinių agentų ir savarankiškumo dirbtuvėse: Duokite man roboto, kuris gali pasirašyti su jumis sutartį, specifikacijas - ne surogatas, priklausantis kitam asmeniui, o jis pats. Tai nėra priežasčių supratimo ar manipuliavimo rašikliu popieriuje klausimas, o greičiau teisinės padėties ir moralinės atsakomybės nuosavybė ir pelnytas pelnas. Maži vaikai negali pasirašyti tokių sutarčių, taip pat neįgalūs asmenys, kurių teisinis statusas įpareigoja juos globoti ir nustato atsakomybę globėjams.

Robotų, kurie gali norėti pasiekti tokį išaukštintą statusą, problema yra ta, kad, kaip ir Supermenas, jie yra pernelyg pažeidžiami, kad galėtų pareikšti tokius reikalavimus. Jei jie atsisako, kas nutiks? Kokia bus bauda už pažado nesilaikymą? Ar jie bus uždaryti į narvą ar atskirti? Dirbtinio intelekto kalėjimas nebus nepatogus, jei pirmą kartą nepasiduosime laisvės troškuliui, kurio pati AI negali ignoruoti ar išjungti. Išardžius AI, nebus sunaikinta informacija, saugoma jo diske ir programinėje įrangoje.

Paprastas skaitmeninis duomenų įrašymas ir perdavimas - proveržis, kuris įgalino programinę įrangą ir duomenis iš tikrųjų pasiekti nemirtingumą - daro robotus neliečiamus. Jei neatrodo akivaizdu, pagalvokite, kaip pasikeistų žmonių moralė, jei galėtume palaikyti žmones kas savaitę. Šokimas nuo tilto be guminės juostos sekmadienį po penktadienio atsarginių kopijų gali būti sudėtingas sprendimas, tada vėliau galėsite žiūrėti savo nesavalaikės mirties filmuotą medžiagą.

Štai kodėl mes nekuriame sąmoningų - norėtume sukurti - humanoidų, o veikiau visiškai naujo tipo būtybių, kai kurių orakulių, nesąmoningų, nebijančių mirties, be meilės ir neapykantos dėmesio, be asmenybės: tiesos veidrodžiai, kuriuos beveik neabejotinai užkrės žmogus. melas.

Žmonių naudojimasis žmonėmis greitai - vėlgi - pasikeis amžiams, tačiau jei prisiimsime atsakomybę už savo evoliucijos trajektoriją, galime išvengti nereikalingų pavojų.

Ilja Khel