Kaip kompiuteriai priima keistus sprendimus
Dirbtinis intelektas vystosi taip greitai, kad daugelis pradeda jausti nerimą: jei jis netrukus sugebės patirti emocijas ir priimti savo sprendimus. Nesvarbu, ar tai robotas, savarankiška transporto priemonė, ar sprendimus priimantis asmuo versle ir moksle: dirbtinis intelektas skverbiasi į visas mūsų gyvenimo ir visuomenės sritis. Mašinų smegenys yra laikomos logiškomis, neemocionaliomis ir nešališkomis, tačiau praktika rodo, kad jie ne visada viską nusprendžia atvirai.
- „Salik.biz“
Dirbtinis intelektas yra būtinas, kai svarbu atpažinti didelių duomenų kiekius ir priimti sprendimus, remiantis jais. Tačiau ateityje dirbtinio intelekto sistemos taip pat galėtų būti naudojamos tose srityse, kuriose mūsų gerovė ir netgi gyvenimas tiesiogiai priklauso nuo išvadų - medicinoje, renkantis darbą, suteikiant paskolas ir vykdant teisingumą.
Kaip objektyviai ir morališkai teisingą sprendimą priima dirbtinis intelektas? Ar tikrai galime pasitikėti mašinų smegenimis priimdami tokius potencialiai svarbius sprendimus?
Dirbtinis intelektas naudojamas visose srityse
Net ir dabar adaptyvūs algoritmai naudojami daugelyje mūsų kasdienio gyvenimo sričių. Yra skaitmeniniai asistentai, suprantantys balso komandas ir klausimus. Internete žiniatinklio robotai padeda prižiūrėti ir kontroliuoti svetaines, kad jas būtų sunku atskirti nuo žmonių. Net aptikus netikras naujienas ir manipuliacijas vaizdais, įtraukiamos dirbtinio intelekto sistemos.
Reklaminis vaizdo įrašas:
PG sistemos taip pat atlieka savo darbą pramonėje, versle ir net vyriausybėje. Jie optimizuoja ir kontroliuoja gamybos procesus, reguliuoja konteinerių uostų ir didelių sandėlių logistiką arba tvarko apskaitos dokumentus. Draudimo bendrovės ir bankai jau turi pirmąsias intelektualiąsias programas, skirtas tikrinti pateiktas paraiškas ar priimti sprendimus dėl išmokų. „Ikea“, „Deutsche Telekom“ir daugelyje kitų kompanijų, UNICEF ar bibliotekų, virtualūs padėjėjai užsiima klientų aptarnavimu.
Didelis duomenų kiekis apdorojamas mokymui
Visa tai įmanoma dėl AI sistemų galimybės greitai analizuoti didžiulį duomenų kiekį, nustatyti modelius ir koreliacijas. Pavyzdžiui, algoritmas mokosi iš daugybės augintinių nuotraukų su sutampančiais vardais. Po mokymo laikotarpio sistema gali pasirinkti visiškai naujas norimų rūšių nuotraukas. Ji pati pripažįsta skirtumus.
Daugelis kitų PG sistemų naudoja tekstą kaip mokymosi pagrindą. Jie įvertina žodžio stovėjimo aplinkybes ir tiria jo semantinę reikšmę, taip pat santykius su panašiais žodžiais ar sinonimais. Šie semantiniai ryšiai paverčia programas matematinėmis išraiškomis ir taip išmoksta net sudėtingus semantinius kontekstus.
Pavyzdžiui, tik dėl šio sugebėjimo dirbtinis intelektas gali įvertinti, pavyzdžiui, medicinos duomenis ir medicininius įrašus bei iš jų nustatyti klinikinių vaizdų charakteristikas. Remiantis šiais rezultatais, PG sistemos jau naudojamos kaip diagnostinė pagalba, jos gali atpažinti įvairius vėžio tipus, Alzheimerio ligos požymius, savižudybės būkles ir pavojingą cukraus kiekį sergant cukriniu diabetu.
Tačiau kaip patraukli, kaip atrodo, vis daugiau ir daugiau AI turi didelį trūkumą. Kuo toliau dirbtinis intelektas prasiskverbia praktiškai į visas mūsų visuomenės sritis, tuo didesnės galimos jo sprendimų pasekmės. Žmogaus finansinė ar profesinė ateitis ar net jo gyvenimas priklauso nuo jo sprendimo.
PG sprendimai, kurie gali kainuoti gyvybes
Pvz., Jei AI diagnozuojamas neteisingai medicinoje ir jo neapklausia, pacientas gali būti netinkamai gydomas arba net mirti. Kariuomenė naudoja autonominę ginklų sistemą, kuri priima neteisingus sprendimus. Pvz., PG negali atskirti bėgančio draugo nuo priešo - nekaltasis miršta.
PG algoritmai jau naudojami teismuose JAV. Jie prognozuoja pažeidėjų recidyvo tikimybę teisme. Jų vertinimas dažnai daro įtaką teismo sprendimui ir atitinkamai nuteistojo bausmei.
Jei AI nusprendžia dėl paskolų
Panašiai sprendimas dėl finansų ir draudimo gali turėti įtakos tam, ar asmuo gauna paskolą, ar ne. Šios sistemos paprastai mokomos naudojant duomenų bazes.
Ir čia AI ieško modelių: kurie žmonės dažniausiai grąžina paskolas, o kurie ne? Jis parengia savo vertinimo procedūras ir priima tinkamus sprendimus. Visų pirma tai reiškia, kad netinkamą gyvenamąją ar profesinę vietą turintys žmonės negaus paskolų, nesvarbu, kiek jie nori mokėti, nepaisant šių aplinkybių.
Tokiu atsakomybės pasiskirstymu kompiuteriais žmogus bus tik padėjėjas vykdant kibernetinių smegenų sprendimus. Ir tai jau vyksta.
Kas atsakingas už klaidas?
Kita AI plėtros problema: kuo sudėtingesni sprendimų priėmimo principai, tuo sunkiau žmonėms juos suprasti. Taip pat kyla klausimas, kas atsakingas už klaidas.
Nelaimingų atsitikimų atvejai, kai automobiliai važiuojami autopilotu, tapo dažnesni: kas kaltas dėl to, kad kai kurios situacijos neišsaugomos atmintyje ar PG daro neteisingus išvadas. O gal jis daro savo išvadas? Tokių pavyzdžių jau yra.
Žaidžiantys botai žaidimo metu yra sukūrę savo taisykles
Šiam tyrimui tyrėjai leido 100 išmaniųjų robotų sąveikauti tarpusavyje koncesijos žaidime. Kiekvienas iš jų turi nuspręsti, ar paaukoti ką nors iš savo komandos, ar žaidimo dalyviui iš išorės.
Keista, tačiau bėgant laikui robotai vis labiau atsiribojo nuo pašalinių grupių ir aukojasi tik savo komandos nariams.
Priežastis: išmanieji robotai pritaikė savo žaidimo strategiją, kopijuodami bendražygių, kurie surinko daugiausiai pinigų ir kurie buvo sėkmingiausi, elgesį. Taigi atsirado botų grupės, kurios elgėsi vienodai ir nuolat pašalino nesusijusius žaidimo dalyvius. Nuolat kurdama tai, kas apskaičiuoja, analizuoja ir priima sprendimus greičiau nei ji, žmonija vieną dieną praras kontrolę savo kūrimo, kurio veiksmų ji negalės atsekti, atžvilgiu.
Anot mokslininkų, tai akivaizdu: dirbtiniam intelektui nereikia dirbtinių duomenų, kad jis būtų šališkas, užtenka, kad aplink jį būtų kitos mašinos. Nes net tai gali sukurti grupinį protą, žinomą iš žmonių bendruomenių. Todėl, naudodamiesi AI, žmonės turėtų palikti sprendimą patys.
Vasilik Svetlana