Moralinė Mašina: Inžinieriai Dirbtinį Intelektą Apdovanojo Morale Ir Etika - Alternatyvus Vaizdas

Turinys:

Moralinė Mašina: Inžinieriai Dirbtinį Intelektą Apdovanojo Morale Ir Etika - Alternatyvus Vaizdas
Moralinė Mašina: Inžinieriai Dirbtinį Intelektą Apdovanojo Morale Ir Etika - Alternatyvus Vaizdas

Video: Moralinė Mašina: Inžinieriai Dirbtinį Intelektą Apdovanojo Morale Ir Etika - Alternatyvus Vaizdas

Video: Moralinė Mašina: Inžinieriai Dirbtinį Intelektą Apdovanojo Morale Ir Etika - Alternatyvus Vaizdas
Video: Ar stengtis būti geram nėra tiesiog moralė ir etika? Kuo čia dėta kabala? 2024, Gegužė
Anonim

Kuo stipresnis dirbtinis intelektas patenka į mūsų kasdienį gyvenimą, tuo dažniau jam tenka susidurti su sudėtingomis moralinėmis ir etinėmis dilemomis, kurias gyvam žmogui kartais nėra taip lengva išspręsti. MIT mokslininkai bandė išspręsti šią problemą ir suteikė mašinai galimybę mąstyti moralės požiūriu, remiantis daugumos gyvų žmonių nuomone.

Kai kurie ekspertai mano, kad geriausias būdas išmokyti dirbtinį intelektą spręsti morališkai sunkias situacijas yra „minios patirtis“. Kiti teigia, kad šis požiūris nėra šališkas, o skirtingi algoritmai gali padaryti skirtingas išvadas iš to paties duomenų rinkinio. Kaip tokioje situacijoje gali būti mašinos, kurios, dirbdamos su realiais žmonėmis, akivaizdžiai turės priimti sunkius moralinius ir etinius sprendimus?

Intelektas ir moralė

Vystantis dirbtinio intelekto (PG) sistemoms, ekspertai vis dažniau bando išspręsti problemą, kaip geriausiai suteikti sistemai etinį ir moralinį pagrindą atlikti tam tikrus veiksmus. Populiariausia idėja, kai dirbtinis intelektas daro išvadas, studijuodamas žmogaus sprendimus. Norėdami patikrinti šią prielaidą, Masačusetso technologijos instituto mokslininkai sukūrė „Moral Machine“. Svetainės lankytojų buvo paprašyta pasirinkti, kaip turėtų veikti autonominė transporto priemonė, kai jie pasirenka gana sunkų pasirinkimą. Pavyzdžiui, tai yra įprasta dilema apie galimą avariją, kuriai įvykių plėtrai yra tik dvi galimybės: automobilis gali partrenkti tris suaugusiuosius, kad išgelbėtų dviejų vaikų gyvybes, arba gali padaryti priešingai. Kurį variantą turėtumėte pasirinkti? Ar tai įmanoma, pavyzdžiui,paaukoti pagyvenusio žmogaus gyvybę, norint išgelbėti nėščią moterį?

Dėl to algoritmas surinko didžiulę duomenų bazę, pagrįstą bandymų rezultatais, ir Arielis Procaccia iš Karnegio Mellono universiteto Kompiuterijos katedros nusprendė juos naudoti mašininiam intelektui pagerinti. Naujame tyrime jis ir vienas projekto sumanytojų Iyadas Rahwanas įkėlė visą „Moral Machine“projekto pagrindą į dirbtinį intelektą ir paprašė sistemos numatyti, kaip autopilotu važiuojantis automobilis reaguos į panašius, tačiau vis tiek šiek tiek skirtingus scenarijus. Procaccia norėjo pademonstruoti, kaip balsavimu pagrįsta sistema gali būti „etinio“dirbtinio intelekto sprendimas. “Pats darbo autorius pripažįsta, kad tokia sistema, žinoma, dar per anksti taikyti praktikoje, tačiau puikiai įrodo pačią koncepciją, kad tai yra įmanoma.

Kryžminė moralė

Reklaminis vaizdo įrašas:

Pati idėja rinktis iš dviejų morališkai neigiamų rezultatų nėra nauja. Etikoje jai vartojamas atskiras terminas: dvigubo poveikio principas. Bet tai yra bioetikos sritis, tačiau anksčiau niekas tokios sistemos netaikė automobiliui, todėl tyrimas sukėlė ypatingą viso pasaulio ekspertų susidomėjimą. „OpenAI“pirmininkas Elonas Muskas mano, kad „etiško“dirbtinio intelekto sukūrimas yra aiškių programų kūrimo gairių ar politikos kūrimo klausimas. Politikai pamažu jo klauso: pavyzdžiui, Vokietija sukūrė pirmuosius pasaulyje autonominių automobilių etikos principus. Net „Google“abėcėlės AI „DeepMind“dabar yra etikos ir visuomenės moralės skyrius.

Kiti ekspertai, įskaitant Duke universiteto tyrėjų komandą, mano, kad geriausias būdas judėti į priekį yra sukurti „bendrą sistemą“, apibūdinančią, kaip dirbtinis intelektas priims etinius sprendimus tam tikroje situacijoje. Jie mano, kad kolektyvinių moralinių pažiūrų suvienijimas, kaip ir toje pačioje „Moralinėje mašinoje“, ateityje dirbtinį intelektą pavers dar morališkesniu nei šiuolaikinės žmonių visuomenės.

„Moralinės mašinos“kritika

Kad ir kaip būtų, šiuo metu „daugumos nuomonės“principas toli gražu nėra patikimas. Pavyzdžiui, viena respondentų grupė gali turėti šališkumų, kurie nėra būdingi visiems kitiems. Rezultatas bus tas, kad intelekto intelektai, turintys tiksliai tą patį duomenų rinkinį, gali padaryti skirtingas išvadas, remdamiesi skirtingais tos informacijos pavyzdžiais.

Profesoriui Jamesui Grimmelmannui, kuris specializuojasi programinės įrangos, turto ir galios dinamikos srityje, pati visuomenės moralės idėja atrodo ydinga. „Ji nesugeba mokyti dirbtinio intelekto etikos, o tik apdovanoja ją etikos standartų, būdingų tam tikrai gyventojų daliai, panašumu“, - sako jis. Ir pats Procaccia, kaip minėta pirmiau, pripažįsta, kad jų tyrimai yra ne kas kita, kaip sėkmingas koncepcijos įrodymas. Tačiau jis įsitikinęs, kad toks požiūris gali atnešti sėkmę visai kampanijai, kuria ateityje siekiama sukurti labai moralinį intelektą. - Be abejo, demokratija turi nemažai trūkumų, tačiau kaip vieninga sistema ji veikia - net jei kai kurie žmonės vis tiek priima sprendimus, kuriems dauguma nesutinka.

Vasilijus Makarovas