AI Gali Pakeisti Mūsų Gyvenimą Amžiams, Tačiau šiuo Metu Einame Tamsiu Keliu - Alternatyvus Vaizdas

AI Gali Pakeisti Mūsų Gyvenimą Amžiams, Tačiau šiuo Metu Einame Tamsiu Keliu - Alternatyvus Vaizdas
AI Gali Pakeisti Mūsų Gyvenimą Amžiams, Tačiau šiuo Metu Einame Tamsiu Keliu - Alternatyvus Vaizdas

Video: AI Gali Pakeisti Mūsų Gyvenimą Amžiams, Tačiau šiuo Metu Einame Tamsiu Keliu - Alternatyvus Vaizdas

Video: AI Gali Pakeisti Mūsų Gyvenimą Amžiams, Tačiau šiuo Metu Einame Tamsiu Keliu - Alternatyvus Vaizdas
Video: PROFESIONALŲ ŽAIDIMAS. Kas yra sąmonė? 1 filmas 2024, Gegužė
Anonim

Dirbtinis intelektas (AI) jau keičia pasaulį matomomis priemonėmis. Duomenys skatina mūsų pasaulinę skaitmeninę ekosistemą, o AI technologijos atskleidžia duomenų modelius.

Išmanieji telefonai, išmanieji namai ir išmanieji miestai daro įtaką gyvenimui ir sąveikai, o dirbtinio intelekto sistemos vis dažniau įtraukiamos į įdarbinimo sprendimus, medicininę diagnostiką ir teismo sprendimus. Ar šis scenarijus yra utopinis, ar distopinis, priklauso nuo mūsų.

- „Salik.biz“

Potenciali PG rizika išvardyta daug kartų. Žudikai robotai ir didžiulis nedarbas yra įprastos problemos, o kai kurie žmonės net bijo išnykimo. Optimistiškesnės prognozės teigia, kad AI iki 2030 m. Į pasaulio ekonomiką pridės 15 trilijonų dolerių ir galų gale nuves mus į kažkokią socialinę nirvaną.

Be abejo, turime apsvarstyti, kokį poveikį tokios technologijos daro mūsų visuomenei. Viena pagrindinių problemų yra ta, kad PG sistemos sustiprina esamus socialinius šališkumus - žlugdantį.

Keletas garsių šio reiškinio pavyzdžių sulaukė plataus dėmesio: modernios automatinės automatinio vertimo sistemos ir vaizdo atpažinimo sistemos.

Šios problemos kyla dėl to, kad tokios sistemos naudoja matematinius modelius (pvz., Neuroninius tinklus), kad apibrėžtų didelių mokymo duomenų rinkinių modelius. Jei šie duomenys įvairiais būdais smarkiai iškraipomi, būdingos klaidos neišvengiamai bus tiriamos ir atkuriamos apmokytose sistemose.

Neobjektyvios autonominės technologijos yra problemiškos, nes jos gali išskirti tokias grupes kaip moterys, etninės mažumos ar pagyvenę žmonės, taip padidindamos esamą socialinį disbalansą.

Jei PG sistemos yra mokomos, pavyzdžiui, iš policijos arešto duomenų, tada bet koks sąmoningas ar nesąmoningas šališkumas, pasireiškiantis esamomis arešto schemomis, bus dubliuojamas „policijos įžvalgos“PG sistema, mokoma remiantis šiais duomenimis.

Reklaminis vaizdo įrašas:

Pripažindamos rimtus to padarinius, įvairios reputacijos organizacijos neseniai rekomendavo mokyti visas dirbtinio intelekto sistemas remtis objektyviais duomenimis. Europos Komisijos anksčiau 2019 m. Paskelbtose etikos gairėse buvo pateikta ši rekomendacija:

Kai duomenys renkami, juose gali būti socialiai padarytų klaidų, netikslumų. Į tai reikia atkreipti dėmesį prieš mokant AI bet kuriame duomenų rinkinyje.

Visa tai skamba pakankamai pagrįstai. Deja, kartais prieš mokymą tiesiog neįmanoma užtikrinti tam tikrų duomenų rinkinių nešališkumo. Konkretus pavyzdys turėtų tai paaiškinti.

Visos šiuolaikinės mašininio vertimo sistemos (tokios kaip „Google Translate“) mokosi iš sakinių porų.

Anglų-prancūzų sistema naudoja duomenis, kurie susieja angliškus sakinius („ji yra aukšta“) su lygiaverčiais prancūzų sakiniais („elle est grande“).

Tam tikrame mokymo duomenų rinkinyje gali būti 500 milijonų tokių porų, taigi tik vienas milijardas atskirų sakinių. Visi tokio tipo duomenų rinkiniai turi būti pašalinti iš lyties, jei norime, kad sistemoje nebūtų generuojami tokie rezultatai:

Vertimas į prancūzų kalbą buvo sukurtas naudojant „Google Translate“2019 m. Spalio 11 d. Ir yra neteisingas: „Ils“yra vyriškas daugiskaita prancūzų kalba ir rodomas čia, net jei kontekstas aiškiai rodo, kad į jį daroma nuoroda ant moterų.

Tai yra klasikinis automatizuotos sistemos, teikiančios pirmenybę numatytajam vyrų standartui, pavyzdys dėl treniruočių duomenų šališkumo.

Iš viso 70 proc. Bendrinių įvardžių vertimo duomenų rinkiniuose yra vyriški, o 30 proc. - moteriški. Taip yra dėl to, kad tokiems tikslams naudojami tekstai dažniau nurodo vyrus nei moteris.

Norint išvengti pasikartojančių vertimo sistemos klaidų, reiktų iš duomenų neįtraukti konkrečių sakinių porų, kad vyriški ir moteriški įvardžiai atitiktų 50:50 tiek anglų, tiek prancūzų kalbomis. Tai užkirs kelią didesnių tikimybių priskyrimo vyriškiems įvardžiams sistemai.

Ir net jei gautame duomenų pogrupyje bus visiškai subalansuota lytis, jis vis tiek bus iškreiptas įvairiais būdais (pvz., Dėl tautybės ar amžiaus). Tiesą sakant, būtų sunku visiškai pašalinti visas šias klaidas.

Jei vienas asmuo skiria tik penkias sekundes kiekvienam iš milijardo sakinių, skaitytų AI mokymo duomenims, perskaityti, prireiks 159 metų, kad juos visus išbandytų. Tai reiškia, kad pasiryžimas dirbti visą dieną ir naktį be pietų pertraukų.

Alternatyva?

Todėl nerealu reikalauti, kad prieš rengiant AI sistemas visi mokymo duomenų rinkiniai būtų nešališki. Tokie aukšto lygio reikalavimai paprastai daro prielaidą, kad „AI“reiškia homogenišką matematinių modelių ir algoritminių metodų grupę.

Tiesą sakant, skirtingoms AI užduotims reikia visiškai skirtingų sistemų sistemų. Ir visiškai neįvertindamas šios įvairovės, paslėpiamos realios problemos, susijusios su, tarkime, labai iškraipytais duomenimis. Tai gaila, nes tai reiškia, kad pamiršti kiti duomenų šališkumo problemos sprendimai.

Pavyzdžiui, treniruoto mašininio vertimo sistemos paklaidas galima žymiai sumažinti, jei sistema pritaikoma po to, kai ji buvo apmokyta dideliame, neišvengiamai šališkame duomenų rinkinyje.

Tai galima padaryti naudojant daug mažesnį, mažiau apgaulingą duomenų rinkinį. Todėl dauguma duomenų gali būti labai šališki, tačiau apmokyta sistema nėra būtina. Deja, tuos metodus retai aptaria tie, kurie kuria AI tyrimų gaires ir teisinius pagrindus.

Jei PG sistemos tik padidina esamą socialinį disbalansą, tada jos labiau atgraso, nei skatina teigiamus socialinius pokyčius. Jei AI technologijos, kurias mes vis dažniau naudojame kasdien, būtų daug mažiau šališkos nei mes, jos galėtų padėti mums atpažinti ir sutikti su mūsų pačių slegiamais išankstiniais įsitikinimais.

Be abejo, to turėtume siekti. Todėl PG dizaineriai turi daug atidžiau galvoti apie jų sukurtų sistemų socialinius padarinius, tuo tarpu tie, kurie rašo apie PG, turi giliau suprasti, kaip PG sistemos iš tikrųjų yra suprojektuotos ir pastatytos.

Nes jei iš tikrųjų artėsime prie technologinės idilės ar apokalipsės, pirmenybė būtų teikiama pirmiesiems.

Viktorija Vetrova