Realų Dirbtinį Intelektą Galima Sukurti Išsprendus Tris Pagrindines Problemas - - Alternatyvus Vaizdas

Turinys:

Realų Dirbtinį Intelektą Galima Sukurti Išsprendus Tris Pagrindines Problemas - - Alternatyvus Vaizdas
Realų Dirbtinį Intelektą Galima Sukurti Išsprendus Tris Pagrindines Problemas - - Alternatyvus Vaizdas

Video: Realų Dirbtinį Intelektą Galima Sukurti Išsprendus Tris Pagrindines Problemas - - Alternatyvus Vaizdas

Video: Realų Dirbtinį Intelektą Galima Sukurti Išsprendus Tris Pagrindines Problemas - - Alternatyvus Vaizdas
Video: Mokslo sriuba: apie DDoS atakas 2024, Gegužė
Anonim

Praėjusį mėnesį Londone vykusioje giliųjų mašinų mokymosi konferencijoje kelis kartus buvo iškelta viena tema: supratimo, ką mes iš tikrųjų darome, svarba. Nors tokios bendrovės kaip „Google“ir toliau tvirtina, kad mes visi gyvename „pirmajame PG amžiuje“, kai mašininis mokymasis tik pradeda atrasti naujas veiklos sritis (tokias kaip kalbos ir vaizdo atpažinimas), tie, kurie iš tikrųjų stovi priešakyje AI tyrimų, stenkitės pabrėžti, kad dar nėra tikrasis AI amžius, kuriuos reikia spręsti dar daugiau. Net jei mes jau turime skaitmeninių asistentų, galinčių kalbėti kaip kompiuteriai sci-fi filmuose, tai nereiškia, kad mes esame rimtai arti realaus dirbtinio intelekto kūrimo.

Galiausiai visos šios problemos, susijusios su realios PG kūrimu, yra šios: informacijos, kurią reikės į jas investuoti, kiekis; dėl mūsų nesugebėjimo sukurti PG, kuri galėtų vienodai gerai susidoroti su keliomis užduotimis vienu metu; Na, iš tikrųjų mes net neįsivaizduojame, kaip tokios sistemos turėtų veikti. 2016 m. Mašinų mokymosi technologijos jau gali padaryti nuostabių dalykų, tačiau šiuos dalykus kartais gali būti sunku paaiškinti, net ir patiems kūrėjams. Jau neminint to, kiek pinigų visa tai kainuoja. Pažvelkime į sudėtingumą, su kuriuo šiandien susiduria AI inžinieriai.

- „Salik.biz“

Pirmiausia informacija, tada AI

Visi puikiai suprantame, kad PG turi turėti prieigą prie informacijos, kad galėtų išstudijuoti mus supantį pasaulį, tačiau mes nelabai suprantame, kiek tiksliai reikia informacijos. Pasak Neilo Lawrence'o, Šefildo universiteto mašinų mokymosi katedros profesoriaus ir AI technologijų kūrimo komandos nario „Amazon“, šioms sistemoms reikės šimtus ir tūkstančius kartų daugiau informacijos nei žmogui, kad jos išmoktų suprasti pasaulį ir atpažinti tam tikrus objektus.

„Jei pažvelgsite į visas pramonės šakas ir sritis, kuriose inžinieriai pasiekė tam tikros sėkmės gilinant mašinas, galite iš karto pamatyti, kiek informacijos buvo panaudota visiems šiems klausimams išspręsti“, - teigia Lawrence, nurodydamas pavyzdį. tos pačios kalbos ir vaizdo atpažinimo technologijos.

Tokios įmonės kaip „Google“ir „Facebook“turi prieigą prie daugybės informacijos, o tai, be abejo, leidžia lengviau sukurti įvairius naudingus įrankius (pavyzdžiui, tas pačias balso paieškos technologijas, pavyzdžiui, „Android“).

Lawrence'ui dabar yra informacija apie tai, kokia anglis buvo pirmaisiais pramonės revoliucijos metais. Kaip pavyzdį Lawrence'as mini Thomasą Newcomeną, anglą, kuris 1712 m. (Faktiškai 60 metų prieš sukūrdamas tokią mašiną sukūrė Jamesas Wattas) sukūrė primityvią anglies varomo garinio variklio versiją. „Newcomen“išradimas nebuvo tobulas. Palyginti su „Watt“mašina, ji pasirodė esanti neveiksminga ir per brangi naudoti. Didžiąją jo dalį buvo galima naudoti tik akmens anglių kasyklose, kur reikalingas degalų kiekis kompensuodavo mašinos trūkumus.

„Facebook“atviros vaizdo atpažinimo technologijos pavyzdys

Reklaminis vaizdo įrašas:

Image
Image

Lawrence'as mano, kad visame pasaulyje gali būti šimtai šių „Newcomen“, kuriančių savo mašininio mokymosi modelius. Ko gero, tarp jų yra tikrai revoliucinių idėjų, tačiau neturėdami prieigos prie savo technologijų didžiulėse duomenų bazėse apie jas, greičiausiai, niekas niekada nesužinos. Didelės kompanijos, tokios kaip „Google“, „Facebook“ir „Microsoft“- tai pačios moderniausios „anglies kasyklos“. Jie turi prieigą prie neriboto informacijos kiekio, todėl gali sukurti neveiksmingas mašinų mokymosi sistemas ir jas patobulinti. Mažos pradedančios įmonės iš tikrųjų gali turėti puikių idėjų, tačiau niekada nepasieks nieko vertingo, jei nebus prieigos prie informacijos bazių.

Ši problema tampa dar aiškesnė, kai pažvelgiate į sritis, kuriose jums dar sunkiau gauti reikiamą informaciją. Paimkite, pavyzdžiui, sveikatos priežiūros sistemą, kur AI galėtų būti naudojama užduotims, susijusioms su mašininiu matymu, atlikti - pvz., Rentgeno spinduliais nustatyti ir atpažinti piktybinius navikus. Tačiau prieiga prie tokių duomenų paprastai yra labai ribota. Pagrindinis ribojantis veiksnys, pasak Lawrence'o, yra dabartinis žmonių suvokimas, kad trečiosioms šalims neetiška yra prieiga prie tokios rūšies informacijos. Pagrindinė problema, pasak Lawrence'o, slypi ne ieškant informacijos skleidimo būdų, bet kaip efektyvinti mašininio mokymosi sistemas ir išmokyti dirbti su mažiau informacijos. Ir šie efektyvumo pagerinimai, pasak mokslininko, gali užtrukti tuos pačius 60 metų.kaip buvo su Watt automobiliu.

Specializacija yra aklavietė. PG turi sugebėti atlikti daugiafunkcinius uždavinius

Kitas pagrindinis iššūkis, su kuriuo susiduriama kuriant tikrai gilius mašininio mokymosi modelius, yra tai, kad visos mūsų dabartinės PG sistemos iš tikrųjų yra labai kvailos. Pasak „Google“„DeepMind“tyrėjos Rya Hudsell, šias sistemas iš tikrųjų galima išmokyti atlikti kačių atpažinimo užduotis, žaisti ir tuo pačiu labai efektyviai atlikti šias užduotis. Tačiau „šiuo metu pasaulyje nėra nė vieno visaverčio nervų tinklo ir metodų, kurie jį išmokytų atpažinti vaizdus, groti„ Space Invaders “ir apmąstyti muziką“. Savo ruožtu, neuroniniai tinklai yra pagrindinis pagrindas kuriant mašinų gilaus mokymosi sistemas.

Ir ši problema yra daug reikšmingesnė, nei gali pasirodyti iš pirmo žvilgsnio. Kai praėjusių metų vasarį „DeepMind“paskelbė sukūrusi sistemą, galinčią žaisti 49 „Atari“žaidimus, tai tikrai buvo galima laikyti dideliu laimėjimu. Bet galų gale paaiškėjo, kad po to, kai sistema užbaigia vieną žaidimą, kiekvieną kartą jį reikia permokyti žaisti kitą. Hudsell pažymi, kad mes negalime išmokyti sistemos žaisti visus žaidimus vienu metu, nes kiekvienos taisyklės susimaišys viena su kita ir galiausiai trukdys atlikti užduotį. Kiekvieną kartą jūs turite iš naujo išmokti mašiną ir kiekvieną kartą sistema „pamiršta“, kaip žaisti ankstesnį žaidimą.

„Norint sukurti bendrą dirbtinį intelektą, mums reikia kažko, kas padėtų išmokyti mašiną atlikti kelias užduotis vienu metu. Dabar mes net negalime jų išmokyti žaisti žaidimų “, - sako Hadselis.

Sprendimą galima paslėpti vadinamuosiuose progresyviuose neuroniniuose tinkluose - sujungiant nepriklausomas gilaus mokymosi sistemas į vieną visumą efektyvesniam darbui su informacija. Paskelbtame moksliniame dokumente, kuriame nagrinėjama ši problema, Hadsell ir jos tyrėjų komanda kalbėjo apie tai, kaip jų progresyvusis nervų tinklas sugebėjo adaptuotis žaidime „Pong“, kurio sąlygos kiekvieną kartą buvo šiek tiek skirtingos (vienu atveju spalvos buvo keičiamos; kitu atveju jos buvo painiojamos). valdymas), daug greičiau nei „įprastas“nervų tinklas, kurį reikėjo treniruoti iš naujo kiekvieną kartą.

Pagrindinis laipsniško nervinio tinklo principas

Image
Image

Šis metodas pasirodė labai perspektyvus ir neseniai buvo naudojamas suderinti robotus, pagreitinantis mokymosi procesą nuo savaitės iki vienos dienos. Deja, šis metodas taip pat turi savo trūkumų. Hudsell pažymi, kad progresyvių neuroninių tinklų atveju mokymosi procesas negali būti sumažintas iki tiesiog pridedant naujas užduotis prie savo atminties. Jei ir toliau derinsite tokias sistemas kartu, anksčiau ar vėliau ateisite prie „per daug sudėtingo modelio, kurio bus neįmanoma atsekti“. Šiuo atveju mes kalbėsime apie kitą lygį. Lygis, kuriame įvairios užduotys paprastai bus vykdomos vienodai. Pastatyti AI, galintį suprojektuoti kėdes, ir sukurti žmogaus intelekto lygio AI, gebančią rašyti eilėraščius ir spręsti diferencialines lygtis, nėra tas pats dalykas.

PG gali būti vadinama P, jei galime parodyti, kaip ji veikia

Kita bauginanti kliūtis yra suprasti, kaip dirbtinis intelektas pateiks savo išvadas spręsdamas problemas. Neuroniniai tinklai paprastai yra nepralaidūs stebėtojui. Nepaisant to, kad žinome, kaip jie renkami ir kaip per juos sklinda informacija, jų priimami sprendimai paprastai lieka nepaaiškinami.

Puikus šios problemos pavyzdys yra „Virginia Tech“eksperimentas. Tyrėjai sukūrė nervų tinklo stebėjimo sistemą, kuri įrašo, kuriuos skaitmeninio vaizdo taškus kompiuteris pradeda analizuoti. Tyrėjai parodė miegamojo neuroninio tinklo vaizdus ir uždavė jam klausimą: „Kas kabo ant langų?“Mašina, užuot žiūrėjusi tiesiai į langus, pradėjo analizuoti vaizdus, pradedant nuo grindų. Į jos regos lauką atėjo lova, ir automobilis atsakė: „ant langų yra užuolaidos“. Atsakymas pasirodė teisingas, bet tik todėl, kad sistema buvo „išmokyta“dirbti su ribotu duomenų kiekiu. Remiantis pavaizduota nuotrauka, neuroninis tinklas padarė išvadą, kad jei nuotraukoje pavaizduotas miegamasis, greičiausiai ant langų turėtų būti užuolaidos. Taigi kai detalė pateko į jos regėjimo lauką,kuris dažniausiai būna bet kuriame miegamajame (šiuo atveju - lovoje), ji neanalizavo vaizdo toliau. Ji galbūt net nematė šios lovos, pamatė užuolaidas. Tai logiška, bet labai paviršutiniška ir patraukli. Be to, daugelyje miegamųjų kambarių nėra užuolaidų!

Stebėjimo technologija yra tik vienas įrankis, galintis padėti mums suprasti, kas verčia mašiną priimti tam tikrą sprendimą, tačiau yra ir geresnių metodų, kurie kompiuterio mokymosi sistemoms gali suteikti daugiau logikos ir gilesnės analizės. Murray Shanahan, Londono „Imperial“koledžo kognityvinės robotikos profesorius, mano, kad geriausias problemos sprendimas yra permąstyti senamadišką AI paradigmą - simbolinę AI arba GOFAI (gerą senamadišką dirbtinį intelektą, „seną gerą dirbtinį intelektą“). Jos paradigma paaiškėja tuo, kad absoliučiai bet kurią užduotį galima suskaidyti į pagrindinius loginius elementus, kur kiekvienas žodis yra tik sudėtingas paprastų simbolių rinkinys. Derinant šiuos simbolius - veiksmuose, įvykiuose, daiktuose ir pan. - galima susintetinti mąstymą. Tik pagalvokite, kad tokie pokyčiai buvo vykdomi dar tais laikais, kai kompiuteriai buvo milžiniškos kambario dydžio dėžutės, dirbantys magnetine juosta (darbas prasidėjo 50-ųjų viduryje ir tęsėsi iki praėjusio amžiaus 80-ųjų pabaigos).

Shanahano pasiūlymas yra sujungti GOFAI simbolinius aprašymus ir gilaus mokymosi technologijas. Tai leis ne tik pateikti tokioms sistemoms naują informaciją ir laukti, kol jos, remiantis šia informacija, išsiaiškins tam tikrus elgesio modelius ir problemų sprendimo būdus, Shanahano metodas yra skirtas suteikti tokioms sistemoms atskaitos taškus pasaulio supratimui. Tai, jo manymu, padės išspręsti ne tik PG skaidrumo problemą, bet ir Hadselio aprašytą perkeliamo mokymosi problemą.

Galima sakyti, kad „Breakout“yra labai panašus į „Pongą“, nes abiem atvejais naudojamos „platformos“ir „rutuliai“, tačiau žmogaus suvokimo ir logikos požiūriu tai yra du visiškai skirtingi žaidimai. Tarp jų beveik neįmanoma nubrėžti paralelių. Tai tarsi bandymas sujungti atomo struktūrą ir visos saulės sistemos struktūrą “.

Shanahanas ir jo kolegos Londono „Imperial“koledže šiuo metu dirba prie naujo mašininio mokymosi metodo (kurį jie vadina giliai simboliniu stimuliuojamu mokymusi) ir jau paskelbė kai kurių nedidelių eksperimentų rezultatus. Šis metodas dar tik pradinėje stadijoje, todėl dar sunku pasakyti, ar jis bus pritaikytas didesnėms sistemoms, dirbančioms su skirtingų tipų duomenimis. Nepaisant to, vis dar yra tikimybių, kad šis metodas išaugs į kažką daugiau. Galų gale gilus mokymasis visada buvo nuobodžiausia ir nuobodžiausia PG plėtros dalis, kol tyrėjai rado būdą greitai pasiekti duomenis ir įgijo didžiulę duomenų apdorojimo galią. Gana įmanoma,atėjo laikas grįžti prie senų AI paradigmų ir išbandyti jas naujoje aplinkoje.

NIKOLAY KHIZHNYAK