Žmonės Nepasitiki Dirbtiniu Intelektu. Kaip Tai Ištaisyti? - Alternatyvus Vaizdas

Turinys:

Žmonės Nepasitiki Dirbtiniu Intelektu. Kaip Tai Ištaisyti? - Alternatyvus Vaizdas
Žmonės Nepasitiki Dirbtiniu Intelektu. Kaip Tai Ištaisyti? - Alternatyvus Vaizdas

Video: Žmonės Nepasitiki Dirbtiniu Intelektu. Kaip Tai Ištaisyti? - Alternatyvus Vaizdas

Video: Žmonės Nepasitiki Dirbtiniu Intelektu. Kaip Tai Ištaisyti? - Alternatyvus Vaizdas
Video: Radikalus smalsumas. Kaip bendrauti su žmonėmis, tikinčiais sąmokslo teorijomis 2024, Gegužė
Anonim

Dirbtinis intelektas jau gali nuspėti ateitį. Policija naudoja ją žemėlapiui parengti, kada ir kur gali įvykti nusikaltimai. Gydytojai jį naudoja numatydami, kada pacientą gali ištikti insultas ar širdies priepuolis. Mokslininkai netgi bando suteikti AI vaizduotę, kad ji galėtų numatyti netikėtus įvykius.

Daugeliui sprendimų mūsų gyvenime reikia gerų prognozių, o dirbtinio intelekto agentai beveik visada yra geresni už juos. Nepaisant visų šių technologijų pažangos, mes vis dar nepasitikime prognozėmis, kurias teikia dirbtinis intelektas. Žmonės nėra įpratę pasikliauti dirbtiniu intelektu ir nori pasitikėti žmonių ekspertais, net jei tie ekspertai yra neteisūs.

Image
Image

Jei norime, kad dirbtinis intelektas būtų naudingas žmonėms, turime išmokti juo pasitikėti. Norėdami tai padaryti, turime suprasti, kodėl žmonės taip atkakliai atsisako pasitikėti PG.

Pasitikėkite daktaru Robotu

IBM bandymas pristatyti superkompiuterių programą onkologams (Watson for Oncology) nepavyko. PG pažadėjo pateikti aukštos kokybės 12 vėžio gydymo rekomendacijų, kurios sudaro 80% viso pasaulio atvejų. Iki šiol jo skaičiavimais pagrįstas rekomendacijas gavo daugiau nei 14 000 pacientų.

Bet kai gydytojai pirmą kartą susidūrė su Watsonu, jie pateko į gana sunkią padėtį. Viena vertus, nors Watsonas pateikė gydymo gaires, kurios atitiko jų pačių nuomonę, medicinos profesija nematė didelės vertės AI rekomendacijose. Superkompiuteris tiesiog pasakė jiems tai, ką jie jau žino, ir šios rekomendacijos nepakeitė realaus gydymo. Tai galėjo suteikti gydytojams ramybės ir pasitikėjimo savo pačių sprendimais. Tačiau IBM dar neįrodė, kad Watsonas iš tikrųjų padidina vėžio išgyvenamumą.

Reklaminis vaizdo įrašas:

Image
Image

Kita vertus, jei Watsonas pateikė rekomendacijas, kurios prieštaravo ekspertų nuomonei, gydytojai padarė išvadą, kad Watsonas buvo nekompetentingas. Mašina negalėjo paaiškinti, kodėl jos gydymas pasiteisins, nes jos mašininio mokymosi algoritmai žmonėms buvo per daug sudėtingi. Atitinkamai tai sukėlė dar daugiau nepasitikėjimo, ir daugelis gydytojų tiesiog ignoravo PG rekomendacijas, pasikliaudami savo patirtimi.

Todėl „IBM Watson“vyriausiasis medicinos partneris MD Andersono vėžio centras neseniai paskelbė atšaukiantis programą. Danijos ligoninė taip pat teigė atsisakanti programos, nustačiusi, kad onkologai nesutarė su Watsonu du iš trijų atvejų.

Watsono onkologijos problema buvo ta, kad gydytojai juo tiesiog nepasitikėjo. Žmonių pasitikėjimas dažnai priklauso nuo to, kaip suprantame, kaip mąsto kiti žmonės, ir nuo mūsų pačių patirties, kuri stiprina pasitikėjimą jų nuomone. Tai sukuria psichologinį saugumo jausmą. Kita vertus, dirbtinis intelektas yra palyginti naujas ir žmonėms nesuprantamas. Jis priima sprendimus remdamasis sudėtinga analizės sistema, kad nustatytų galimus paslėptus modelius ir silpnus signalus iš didelio duomenų kiekio.

Net jei tai galima paaiškinti technine prasme, dirbtinio intelekto sprendimų priėmimo procesas dažniausiai yra pernelyg sudėtingas, kad dauguma žmonių jį suprastų. Sąveika su tuo, ko nesuprantame, gali sukelti nerimą ir sukelti valdymo praradimo jausmą. Daugelis žmonių paprasčiausiai nesupranta, kaip ir kaip dirbtinis intelektas veikia, nes tai vyksta kažkur už ekrano, fone.

Dėl tos pačios priežasties jie labiau žino atvejus, kai dirbtinis intelektas yra neteisingas: pagalvokite apie „Google“algoritmą, kuris spalvotus žmones priskiria goriloms; „Microsoft“pokalbių robotą, kuris per mažiau nei parą tapo naciu; „Tesla“transporto priemonė, veikianti autopiloto režimu, lemia mirtiną avariją. Šie nelemti pavyzdžiai sulaukė neproporcingo žiniasklaidos dėmesio, pabrėždami darbotvarkę, kuria negalime pasikliauti technologijomis. Mašininis mokymasis nėra 100% patikimas, iš dalies todėl, kad jį kuria žmonės.

Skilimas visuomenėje?

Dirbtinio intelekto keliami jausmai gilinasi į žmogaus prigimtį. Mokslininkai neseniai atliko eksperimentą, kurio metu apklausė žmones, kurie žiūrėjo filmus apie dirbtinį intelektą (fantaziją) apie automatizavimą kasdieniame gyvenime. Paaiškėjo, kad neatsižvelgiant į tai, ar dirbtinis intelektas buvo vaizduojamas teigiamai, ar neigiamai, tiesiog žiūrint kinematografinį mūsų technologinės ateities vaizdą, poliarizuojamas dalyvių požiūris. Optimistai tampa dar optimistiškesni, o skeptikai - dar daugiau.

Tai rodo, kad žmonės yra nusistatę dėl dirbtinio intelekto, remdamiesi savo samprotavimais, giliai įsišaknijusia patvirtinimo šališkumo tendencija: polinkiu ieškoti ar interpretuoti informaciją taip, kad patvirtintų jau egzistuojančias sąvokas. Kai dirbtinis intelektas vis dažniau rodomas žiniasklaidoje, jis gali skatinti gilų visuomenės susiskaldymą, nesantaiką tarp tų, kurie naudoja dirbtinį intelektą, ir tų, kurie jį atmeta. Vyraujanti žmonių grupė gali gauti didelį pranašumą ar kliūtį.

Trys išeitys iš PG pasitikėjimo krizės

Laimei, turime minčių, kaip susitvarkyti su pasitikėjimu dirbtiniu intelektu. Vien tik dirbtinio intelekto patirtis gali smarkiai pagerinti žmonių požiūrį į šią technologiją. Taip pat yra įrodymų, kad kuo dažniau naudojate tam tikras technologijas (pvz., Internetą), tuo labiau jomis pasitikite.

Kitas sprendimas gali būti atidaryti mašininio mokymosi algoritmų juodąją dėžę ir priversti juos veikti skaidriau. Tokios įmonės kaip „Google“, „Airbnb“ir „Twitter“jau skelbia vyriausybės tyrimų ir informacijos atskleidimo skaidrumo ataskaitas. Tokia dirbtinio intelekto sistemų praktika padės žmonėms įgyti reikiamą supratimą apie tai, kaip algoritmai priima sprendimus.

Tyrimai rodo, kad žmonių įtraukimas į intelektinės nuosavybės sprendimų priėmimą taip pat padidins pasitikėjimą ir leis AI mokytis iš žmogaus patirties. Tyrimas parodė, kad žmonės, kuriems buvo suteikta galimybė šiek tiek modifikuoti algoritmą, jautėsi labiau patenkinti jo darbo rezultatais, greičiausiai dėl pranašumo jausmo ir galimybės paveikti ateities rezultatus.

Mums nereikia suprasti sudėtingo vidinio dirbtinio intelekto sistemų veikimo, tačiau jei suteiksime žmonėms nors šiek tiek informacijos ir kontroliuosime, kaip šios sistemos yra įgyvendinamos, jie labiau pasitikės ir norės pritaikyti dirbtinį intelektą savo kasdieniame gyvenime.

Ilja Khelis