Žudikai Robotai? Sustok, Net Geri Robotai Yra Siaubingai Nenuspėjami - Alternatyvus Vaizdas

Turinys:

Žudikai Robotai? Sustok, Net Geri Robotai Yra Siaubingai Nenuspėjami - Alternatyvus Vaizdas
Žudikai Robotai? Sustok, Net Geri Robotai Yra Siaubingai Nenuspėjami - Alternatyvus Vaizdas

Video: Žudikai Robotai? Sustok, Net Geri Robotai Yra Siaubingai Nenuspėjami - Alternatyvus Vaizdas

Video: Žudikai Robotai? Sustok, Net Geri Robotai Yra Siaubingai Nenuspėjami - Alternatyvus Vaizdas
Video: Robotas buityje. Kaip išsirinkti ? 2024, Liepa
Anonim

Daugiau nei šimto pirmaujančių pasaulyje dirbtinio intelekto kompanijų vadovai yra labai susirūpinę dėl „žudikų robotų“plėtros. Atvirame laiške JT šie verslo lyderiai, įskaitant Eloną Muską iš „Tesla“ir „Google“„DeepMind“įkūrėjus, perspėjo, kad teroristai ir despotai gali priimti autonominės ginklų technologijas arba tam tikru mastu būti nulaužti.

Tačiau tikroji grėsmė yra daug rimtesnė - ir tai ne tik žmogaus netinkamas elgesys, bet ir mašinų klaidos. Ištyrus sudėtingas sistemas paaiškėja, kad jos gali elgtis daug labiau nenuspėjamai, nei galima daryti išvadą apie atskirų veiksmų sumą. Viena vertus, tai reiškia, kad žmonių visuomenė gali elgtis labai skirtingai, nei galite tikėtis ištyrę individų elgesį. Kita vertus, tas pats pasakytina ir apie technologijas. Net paprastų dirbtinio intelekto programų ekosistemos - kurias mes vadiname kvailais, gerais robotais - gali mus nustebinti. Netgi atskiri botai gali elgtis siaubingai.

- „Salik.biz“

Atskiri elementai, kurie sudaro sudėtingas sistemas, pavyzdžiui, ekonominės rinkos ar pasaulinės oro sąlygos, paprastai nesikiša paprasčiausiu linijiniu būdu. Dėl to šias sistemas labai sunku modeliuoti ir suprasti. Pvz., Net po daugelio metų klimato tyrimų neįmanoma numatyti ilgalaikio oro sąlygų elgesio. Šios sistemos yra jautrios mažiausiems pokyčiams, nes reaguoja sprogiai. Bet kuriuo metu labai sunku žinoti tikslią tokios sistemos būklę. Visa tai daro šias sistemas nenuspėjamas.

Visi šie principai taikomi didelėms žmonių grupėms, veikiančioms savaip, nesvarbu, ar tai būtų žmonių draugijos, ar PG robotai. Neseniai mokslininkai ištyrė sudėtingos sistemos tipą, kuris naudojo gerus robotus, kad automatiškai redaguotų Vikipedijos straipsnius. Šiuos įvairius robotukus kuria, rašo ir naudoja patikimi Vikipedijos redaktoriai, o jų programinė įranga yra atvirasis kodas ir prieinama visiems. Individualiai jie turi bendrą tikslą - tobulinti enciklopediją. Tačiau jų kolektyvinis elgesys pasirodė stebėtinai neveiksmingas.

Šių robotų veikimo Vikipedijoje pagrindas yra gerai nusistovėjusios taisyklės ir susitarimai, tačiau kadangi svetainėje nėra centrinės kontrolės sistemos, nėra veiksmingo koordinavimo tarp žmonių, valdančių skirtingus robotus. Rezultatai atskleidė porą robotų, kurie keleriems metams atšaukė vienas kito redagavimą ir niekas nepastebėjo. Ir, žinoma, kadangi šie robotai visai nesimoko, jie taip pat nepastebėjo.

Šie robotai yra skirti pagreitinti redagavimo procesą. Bet maži skirtumai tarp robotukų ar juos naudojančių žmonių dizaino gali vykti dėl masinio išteklių švaistymo vykstančiame „redagavimo kare“, kurį redaktoriai galėtų išspręsti daug greičiau.

Tyrėjai taip pat nustatė, kad robotai skirtingose Vikipedijos kalbinėse versijose elgėsi skirtingai. Taisyklės, atrodytų, beveik vienodos, tikslai identiški, technologijos panašios. Tačiau vokiečių kalbos Vikipedijoje robotų bendradarbiavimas buvo daug efektyvesnis ir produktyvesnis nei, pavyzdžiui, portugalų kalba. Tai galima paaiškinti tik skirtumais tarp žmonių redaktorių, kurie šiuos robotus vykdė skirtingose aplinkose.

Reklaminis vaizdo įrašas:

Eksponentinė painiava

Robotai iš Vikipedijos neturi plačios autonomijos ir sistema nebeveikia pagal atskirų robotų tikslus. Tačiau „Wikimedia“fondas planuoja naudoti AI, kuris suteiks daugiau autonomijos šiems robotams. Ir tai greičiausiai lems dar labiau nenuspėjamą elgesį.

Geras pavyzdys, kas gali atsitikti, yra robotai, sukurti kalbėtis su žmonėmis, kai jie yra priversti bendrauti vieni su kitais. Mes jau nebesistebime asmeninių padėjėjų, tokių kaip Siri, atsakymais. Bet priverskite juos bendrauti tarpusavyje ir jie greitai pradės elgtis netikėtai, ginčytis ir net įžeisti vienas kitą.

Kuo didesnė sistema tampa ir kuo autonomiškesnis kiekvienas botas, tuo sudėtingesnis ir nenuspėjamas bus tos sistemos elgesys ateityje. Vikipedija yra daugybės gana paprastų robotų darbe pavyzdys. „Chatbot“pavyzdys yra nedaug santykinai sudėtingų ir išradingų robotų - abiem atvejais kyla nenumatytų konfliktų. Sudėtingumas ir todėl nenuspėjamumas auga eksponentiškai, nes asmenybė pridedama prie sistemos. Todėl, kai ateityje pasirodys sistemos su daugybe labai sudėtingų robotų, jų nenuspėjamumas peržengs mūsų įsivaizdavimus.

Liepsnojanti beprotybė

Pavyzdžiui, savarankiškai vairuojantys automobiliai žada padaryti perversmą efektyvumo ir kelių saugumo srityje. Bet mes dar nežinome, kas nutiks, kai turėsime didelę visiškai autonominių transporto priemonių sistemą. Jie gali skirtingai elgtis net ir nedideliame individualių transporto priemonių parke kontroliuojamoje aplinkoje. Ir dar labiau nenuspėjamas elgesys gali pasireikšti, kai savarankiškai važiuojantys automobiliai, „apmokyti“skirtingų žmonių skirtingose vietose, pradeda sąveikauti.

Žmonės palyginti greitai gali prisitaikyti prie naujų taisyklių ir konvencijų, tačiau jiems sunku pereiti iš vienos sistemos į kitą. Dirbtiniai agentai gali būti dar sunkesni. Pavyzdžiui, jei automobilis, „apmokytas Vokietijoje“, važiuoja, pavyzdžiui, į Italiją, mes nežinome, kaip jis įsisavins nerašytas kultūros tradicijas, kurių laikosi daugelis kitų „treniruotų Italijoje“automobilių. Kažkas tokio įprasto, kaip sankryžos kirtimas, gali tapti mirtinai rizikingas, nes mes tiesiog nežinome, ar automobiliai sąveikaus, kaip tikėtasi, ar jie elgsis nenuspėjamai.

Dabar pagalvok apie žudikus robotus, kurie priekabiauja prie Musko ir jo kolegų. Netikėtose rankose vienas žudikas robotas gali būti labai pavojingas. O kaip su nenuspėjamų žudikų robotų sistema? Galvok už save.

Ilja Khel