Ar Dirbtinis Intelektas Visada Yra Objektyvus Ir Nori įtikti žmogui - Alternatyvus Vaizdas

Turinys:

Ar Dirbtinis Intelektas Visada Yra Objektyvus Ir Nori įtikti žmogui - Alternatyvus Vaizdas
Ar Dirbtinis Intelektas Visada Yra Objektyvus Ir Nori įtikti žmogui - Alternatyvus Vaizdas

Video: Ar Dirbtinis Intelektas Visada Yra Objektyvus Ir Nori įtikti žmogui - Alternatyvus Vaizdas

Video: Ar Dirbtinis Intelektas Visada Yra Objektyvus Ir Nori įtikti žmogui - Alternatyvus Vaizdas
Video: 101 puikūs atsakymai į sunkiausius interviu klausimus 2024, Gegužė
Anonim

Kaip kompiuteriai priima keistus sprendimus

Dirbtinis intelektas vystosi taip greitai, kad daugelis pradeda jausti nerimą: jei jis netrukus sugebės patirti emocijas ir priimti savo sprendimus. Nesvarbu, ar tai robotas, savarankiška transporto priemonė, ar sprendimus priimantis asmuo versle ir moksle: dirbtinis intelektas skverbiasi į visas mūsų gyvenimo ir visuomenės sritis. Mašinų smegenys yra laikomos logiškomis, neemocionaliomis ir nešališkomis, tačiau praktika rodo, kad jie ne visada viską nusprendžia atvirai.

- „Salik.biz“

Image
Image

Dirbtinis intelektas yra būtinas, kai svarbu atpažinti didelių duomenų kiekius ir priimti sprendimus, remiantis jais. Tačiau ateityje dirbtinio intelekto sistemos taip pat galėtų būti naudojamos tose srityse, kuriose mūsų gerovė ir netgi gyvenimas tiesiogiai priklauso nuo išvadų - medicinoje, renkantis darbą, suteikiant paskolas ir vykdant teisingumą.

Kaip objektyviai ir morališkai teisingą sprendimą priima dirbtinis intelektas? Ar tikrai galime pasitikėti mašinų smegenimis priimdami tokius potencialiai svarbius sprendimus?

Dirbtinis intelektas naudojamas visose srityse

Net ir dabar adaptyvūs algoritmai naudojami daugelyje mūsų kasdienio gyvenimo sričių. Yra skaitmeniniai asistentai, suprantantys balso komandas ir klausimus. Internete žiniatinklio robotai padeda prižiūrėti ir kontroliuoti svetaines, kad jas būtų sunku atskirti nuo žmonių. Net aptikus netikras naujienas ir manipuliacijas vaizdais, įtraukiamos dirbtinio intelekto sistemos.

Reklaminis vaizdo įrašas:

Image
Image

PG sistemos taip pat atlieka savo darbą pramonėje, versle ir net vyriausybėje. Jie optimizuoja ir kontroliuoja gamybos procesus, reguliuoja konteinerių uostų ir didelių sandėlių logistiką arba tvarko apskaitos dokumentus. Draudimo bendrovės ir bankai jau turi pirmąsias intelektualiąsias programas, skirtas tikrinti pateiktas paraiškas ar priimti sprendimus dėl išmokų. „Ikea“, „Deutsche Telekom“ir daugelyje kitų kompanijų, UNICEF ar bibliotekų, virtualūs padėjėjai užsiima klientų aptarnavimu.

Didelis duomenų kiekis apdorojamas mokymui

Visa tai įmanoma dėl AI sistemų galimybės greitai analizuoti didžiulį duomenų kiekį, nustatyti modelius ir koreliacijas. Pavyzdžiui, algoritmas mokosi iš daugybės augintinių nuotraukų su sutampančiais vardais. Po mokymo laikotarpio sistema gali pasirinkti visiškai naujas norimų rūšių nuotraukas. Ji pati pripažįsta skirtumus.

Image
Image

Daugelis kitų PG sistemų naudoja tekstą kaip mokymosi pagrindą. Jie įvertina žodžio stovėjimo aplinkybes ir tiria jo semantinę reikšmę, taip pat santykius su panašiais žodžiais ar sinonimais. Šie semantiniai ryšiai paverčia programas matematinėmis išraiškomis ir taip išmoksta net sudėtingus semantinius kontekstus.

Pavyzdžiui, tik dėl šio sugebėjimo dirbtinis intelektas gali įvertinti, pavyzdžiui, medicinos duomenis ir medicininius įrašus bei iš jų nustatyti klinikinių vaizdų charakteristikas. Remiantis šiais rezultatais, PG sistemos jau naudojamos kaip diagnostinė pagalba, jos gali atpažinti įvairius vėžio tipus, Alzheimerio ligos požymius, savižudybės būkles ir pavojingą cukraus kiekį sergant cukriniu diabetu.

Tačiau kaip patraukli, kaip atrodo, vis daugiau ir daugiau AI turi didelį trūkumą. Kuo toliau dirbtinis intelektas prasiskverbia praktiškai į visas mūsų visuomenės sritis, tuo didesnės galimos jo sprendimų pasekmės. Žmogaus finansinė ar profesinė ateitis ar net jo gyvenimas priklauso nuo jo sprendimo.

PG sprendimai, kurie gali kainuoti gyvybes

Pvz., Jei AI diagnozuojamas neteisingai medicinoje ir jo neapklausia, pacientas gali būti netinkamai gydomas arba net mirti. Kariuomenė naudoja autonominę ginklų sistemą, kuri priima neteisingus sprendimus. Pvz., PG negali atskirti bėgančio draugo nuo priešo - nekaltasis miršta.

Image
Image

PG algoritmai jau naudojami teismuose JAV. Jie prognozuoja pažeidėjų recidyvo tikimybę teisme. Jų vertinimas dažnai daro įtaką teismo sprendimui ir atitinkamai nuteistojo bausmei.

Jei AI nusprendžia dėl paskolų

Panašiai sprendimas dėl finansų ir draudimo gali turėti įtakos tam, ar asmuo gauna paskolą, ar ne. Šios sistemos paprastai mokomos naudojant duomenų bazes.

Image
Image

Ir čia AI ieško modelių: kurie žmonės dažniausiai grąžina paskolas, o kurie ne? Jis parengia savo vertinimo procedūras ir priima tinkamus sprendimus. Visų pirma tai reiškia, kad netinkamą gyvenamąją ar profesinę vietą turintys žmonės negaus paskolų, nesvarbu, kiek jie nori mokėti, nepaisant šių aplinkybių.

Tokiu atsakomybės pasiskirstymu kompiuteriais žmogus bus tik padėjėjas vykdant kibernetinių smegenų sprendimus. Ir tai jau vyksta.

Kas atsakingas už klaidas?

Kita AI plėtros problema: kuo sudėtingesni sprendimų priėmimo principai, tuo sunkiau žmonėms juos suprasti. Taip pat kyla klausimas, kas atsakingas už klaidas.

Nelaimingų atsitikimų atvejai, kai automobiliai važiuojami autopilotu, tapo dažnesni: kas kaltas dėl to, kad kai kurios situacijos neišsaugomos atmintyje ar PG daro neteisingus išvadas. O gal jis daro savo išvadas? Tokių pavyzdžių jau yra.

Žaidžiantys botai žaidimo metu yra sukūrę savo taisykles

Šiam tyrimui tyrėjai leido 100 išmaniųjų robotų sąveikauti tarpusavyje koncesijos žaidime. Kiekvienas iš jų turi nuspręsti, ar paaukoti ką nors iš savo komandos, ar žaidimo dalyviui iš išorės.

Image
Image

Keista, tačiau bėgant laikui robotai vis labiau atsiribojo nuo pašalinių grupių ir aukojasi tik savo komandos nariams.

Image
Image

Priežastis: išmanieji robotai pritaikė savo žaidimo strategiją, kopijuodami bendražygių, kurie surinko daugiausiai pinigų ir kurie buvo sėkmingiausi, elgesį. Taigi atsirado botų grupės, kurios elgėsi vienodai ir nuolat pašalino nesusijusius žaidimo dalyvius. Nuolat kurdama tai, kas apskaičiuoja, analizuoja ir priima sprendimus greičiau nei ji, žmonija vieną dieną praras kontrolę savo kūrimo, kurio veiksmų ji negalės atsekti, atžvilgiu.

Anot mokslininkų, tai akivaizdu: dirbtiniam intelektui nereikia dirbtinių duomenų, kad jis būtų šališkas, užtenka, kad aplink jį būtų kitos mašinos. Nes net tai gali sukurti grupinį protą, žinomą iš žmonių bendruomenių. Todėl, naudodamiesi AI, žmonės turėtų palikti sprendimą patys.

Vasilik Svetlana