Mąstymas Kaip žmogus: Kas Nutiks, Jei Mašiną Suteiksite Sąmonės Teorijai - Alternatyvus Vaizdas

Turinys:

Mąstymas Kaip žmogus: Kas Nutiks, Jei Mašiną Suteiksite Sąmonės Teorijai - Alternatyvus Vaizdas
Mąstymas Kaip žmogus: Kas Nutiks, Jei Mašiną Suteiksite Sąmonės Teorijai - Alternatyvus Vaizdas

Video: Mąstymas Kaip žmogus: Kas Nutiks, Jei Mašiną Suteiksite Sąmonės Teorijai - Alternatyvus Vaizdas

Video: Mąstymas Kaip žmogus: Kas Nutiks, Jei Mašiną Suteiksite Sąmonės Teorijai - Alternatyvus Vaizdas
Video: «Vieša paslaptis» Patarimai, kaip atpažinti automobilius, kurie sutvirtinti iš kelių dalių? 2024, Liepa
Anonim

Praėjusį mėnesį savamokslių AI žaidėjų komanda patyrė įspūdingą pralaimėjimą prieš profesionalius esporto žaidėjus. Parodų varžybos, kurios vyko kaip tarptautinio „Dota 2“pasaulio čempionato dalis, parodė, kad komandos strateginis mąstymas vis tiek leidžia žmogui įgyti virš automobilio.

Dalyvaujantys PG buvo keli algoritmai, kuriuos sukūrė OpenAI, kurių vienas įkūrėjų yra Elonas Muskas. Skaitmeninių grotuvų kolektyvas, vadinamas „OpenAI Five“, išmoko žaisti „Dota 2“savarankiškai, bandydamas per klaidą ir konkuruodamas tarpusavyje.

- „Salik.biz“

Skirtingai nuo to paties šachmatų ar stalo loginio žaidimo „Go“, populiarus ir sparčiai populiarėjantis kelių žaidimų žaidimas „Dota 2“laikomas daug rimtesne dirbtinio intelekto testavimo sritimi. Bendras žaidimo sunkumas yra tik vienas veiksnys. Neužtenka tik labai greitai paspausti pelę ir duoti komandas jūsų valdomam personažui. Norint laimėti, reikia turėti intuiciją ir supratimą, ko tikėtis iš priešininko kitą akimirką, taip pat tinkamai elgtis pagal šį žinių rinkinį, kad susilieti su bendromis pastangomis siekiant bendro tikslo - pergalės. Kompiuteris neturi šio galimybių rinkinio.

Iki šiol net ir ryškiausias giluminio mokymosi kompiuterio algoritmas neturi strateginio mąstymo, kurio reikia norint suprasti tikslus iš oponento užduočių, nesvarbu, ar tai būtų kitas AI, ar žmogus.

Anot Wango, norint, kad AI pavyktų, reikia turėti gilų bendravimo įgūdžių, atsirandančių dėl svarbiausio žmogaus pažintinio bruožo - intelekto buvimo.

Psichinės būsenos modelis kaip modeliavimas

Reklaminis vaizdo įrašas:

Iki ketverių metų vaikai paprastai pradeda suprasti vieną esminį socialinį bruožą: jų protas skiriasi nuo kitų. Jie pradeda suprasti, kad kiekvienas turi tai, kuo tiki, savo norus, emocijas ir ketinimus. Ir, svarbiausia, įsivaizduodami save kitų vietoje, jie gali pradėti numatyti tolesnį šių žmonių elgesį ir juos paaiškinti. Tam tikra prasme jų smegenys pradeda kurti daugybę savęs modeliavimo būdų, pakeisdamos save kitų žmonių vietoje ir atsidurdamos kitoje aplinkoje.

Psichinės būsenos modelis yra svarbus norint suprasti save kaip asmenį, taip pat vaidina svarbų vaidmenį socialinėje sąveikoje. Kitų supratimas yra raktas į efektyvų bendravimą ir bendrų tikslų siekimą. Tačiau šis sugebėjimas taip pat gali būti klaidingų įsitikinimų varomoji jėga - idėjos, nukreipiančios mus nuo objektyvios tiesos. Kai tik sutrinka gebėjimas naudotis psichinės būsenos modeliu, pavyzdžiui, tai įvyksta autizme, tada pablogėja ir natūralūs „žmogiški“įgūdžiai, tokie kaip gebėjimas paaiškinti ir įsivaizduoti.

Pasak Vakarų Anglijos universiteto robotikos profesoriaus daktaro Alano Winfieldo, psichinės būsenos modelis arba „proto teorija“yra pagrindinė savybė, kuri vieną dieną leis AI „suprasti“žmones, daiktus ir kitus robotus.

Vietoj mašininio mokymosi metodų, kai keli neuroninių tinklų sluoksniai išgauna atskirą informaciją ir „tiria“didžiules duomenų bazes, Winstonas siūlo pasirinkti kitokį požiūrį. Užuot pasikliavęs mokymu, Winstonas siūlo iš anksto suplanuoti AI pagal vidinį savo ir aplinkos modelį, kuris atsakys į paprastus klausimus „o kas?“.

Pvz., Įsivaizduokite, kad du robotai juda siauru koridoriumi, jų AI gali imituoti tolimesnių veiksmų, kurie užkirs kelią jų susidūrimui, rezultatus: pasukti į kairę, į dešinę ar tęsti tiesiai. Šis vidinis modelis veiks iš esmės kaip „pasekmių mechanizmas“, veikiantis kaip „sveikas protas“, kuris padės nukreipti AI į kitus teisingus veiksmus numatant būsimą situacijos raidą.

Šių metų pradžioje paskelbtame tyrime „Winston“pademonstravo roboto, galinčio pasiekti tokius rezultatus, prototipą. Numatęs kitų elgesį, robotas sėkmingai praėjo koridoriumi be susidūrimų. Tiesą sakant, tai nestebina, pažymi autorius, tačiau „dėmesingas“robotas, naudodamas modeliuotą problemos sprendimo būdą, užtruko 50 procentų ilgiau, kad užbaigtų koridorių. Nepaisant to, Winstonas įrodė, kad jo vidinio modeliavimo metodas veikia: „Tai labai galingas ir įdomus pradinis dirbtinio intelekto teorijos tobulinimo taškas“, - padarė išvadą mokslininkas.

Winstonas tikisi, kad galiausiai AI įgis sugebėjimą apibūdinti, protiškai atkartoti situacijas. Savo ir kitų vidinis modelis leis tokiai AI modeliuoti įvairius scenarijus ir, kas dar svarbiau, apibrėžti konkrečius kiekvieno iš jų tikslus ir uždavinius.

Tai žymiai skiriasi nuo gilaus mokymosi algoritmų, kurie iš esmės nesugeba paaiškinti, kodėl jie priėjo prie tos ar tos išvados spręsdami problemą. Juodosios dėžės giluminio mokymosi modelis iš tikrųjų yra tikroji pasitikėjimo tokiomis sistemomis problema. Ši problema gali tapti ypač aktuali, pavyzdžiui, kuriant slaugos robotus ligoninėms ar pagyvenusiems žmonėms.

PG, apsiginklavęs psichinės būklės modeliu, galėtų įsikurti savo šeimininko avalyne ir teisingai suprasti, ko iš jo norima. Tada jis galėtų nustatyti tinkamus sprendimus ir, paaiškinęs asmeniui šiuos sprendimus, jis jau atliktų jam paskirtą užduotį. Kuo mažiau neapibrėžtumo priimant sprendimus, tuo daugiau bus pasitikėjimo tokiais robotais.

Psichinės būklės modelis neuroniniame tinkle

„DeepMind“laikosi kitokio požiūrio. Užuot iš anksto suprogramavę pasekmių mechanizmo algoritmą, jie sukūrė kelis neuroninius tinklus, kurie panašūs į kolektyvinio psichologinio elgesio modelį.

PG algoritmas „ToMnet“gali išmokti veiksmus stebėdamas kitus neutronų tinklus. Pats „ToMNet“yra trijų neuroninių tinklų kolektyvas: pirmasis grindžiamas kitų AI pasirinkimo atsižvelgiant į jų naujausius veiksmus ypatumais. Antrasis sudaro bendrą dabartinės nuotaikos sampratą - jų įsitikinimus ir ketinimus tam tikru laiko momentu. Kolektyvinį dviejų neuroninių tinklų darbo rezultatą gauna trečiasis, kuris prognozuoja tolesnius PG veiksmus atsižvelgiant į situaciją. Kaip ir giluminis mokymasis, „ToMnet“tampa veiksmingesnis, nes įgyja patirties stebėdamas kitus.

Viename eksperimente „ToMnet“„stebėjo“, kaip trys AI agentai manevruoja skaitmeniniame kambaryje, rinkdami spalvotas dėžutes. Kiekvienas iš šių PG turėjo savo ypatumą: vienas buvo „aklas“- negalėjo nustatyti formos ir išdėstymo kambaryje. Kitas buvo „sklerotikas“: jis negalėjo prisiminti paskutinių savo žingsnių. Trečiasis galėjo tiek pamatyti, tiek prisiminti.

Po mokymų „ToMnet“, stebėdamas jos veiksmus, pradėjo numatyti kiekvienos AI preferencijas. Pavyzdžiui, „aklasis“nuolat judėjo tik palei sienas. „ToMnet“tai prisiminė. Algoritmas taip pat sugebėjo teisingai numatyti būsimą AI elgesį ir, dar svarbiau, suprasti, kai AI aptiko klaidingą aplinkos vaizdą.

Viename tyrime mokslininkų komanda užprogramavo vieną AI „trumparegystei“ir pakeitė kambario išdėstymą. Agentai, turintys normalų regėjimą, greitai prisitaikė prie naujo išdėstymo, tačiau trumparegystė toliau eidavo savo pirminiais maršrutais, klaidingai manydama, kad vis dar yra senoje aplinkoje. „ToMnet“greitai pastebėjo šią funkciją ir tiksliai nuspėjo agento elgesį, pastatydamas save į savo vietą.

Pasak Kalifornijos Berklio universiteto vystymosi psichologo dr. Alisono Gopniko, kuris nedalyvavo šiuose tyrimuose, tačiau buvo susipažinęs su išvadomis, šie rezultatai parodo, kad nerviniai tinklai turi nepaprastą sugebėjimą savarankiškai išmokti įvairių įgūdžių stebėdami kitus. Kartu, pasak eksperto, dar labai anksti sakyti, kad šios PG sukūrė dirbtinį psichinės būklės modelį.

Pasak daktaro Josho Tenebaumo iš Masačusetso technologijos instituto, kuris taip pat nedalyvavo tyrime, „ToMnet“„supratimas“yra stipriai susijęs su mokymosi aplinkos kontekstu - tame pačiame kambaryje ir konkrečiais PG agentais, kurių užduotis buvo surinkti dėžes. Dėl tam tikros sistemos suvaržymo „ToMnet“yra mažiau veiksmingas numatant elgesį radikaliai naujoje aplinkoje, palyginti su tais pačiais vaikais, kurie gali prisitaikyti prie naujų situacijų. Algoritmas, anot mokslininko, nesugebės modeliuoti visiškai skirtingo AI ar asmens veiksmų.

Bet kokiu atveju „Winston“ir „DeepMind“darbai rodo, kad kompiuteriai pradeda rodyti „supratimo“pradžią, net jei šis supratimas vis dar yra tik pradinis. Ir toliau tobulinant šį įgūdį, geriau ir geriau suprantant vienas kitą, ateis laikas, kai mašinos galės suprasti mūsų pačių sąmonės sudėtingumą ir sudėtingumą.

Nikolajus Khizhnyak