Dirbtinis Intelektas: Pavojingas Priešas Ar Malonus Pagalbininkas - Alternatyvus Vaizdas

Dirbtinis Intelektas: Pavojingas Priešas Ar Malonus Pagalbininkas - Alternatyvus Vaizdas
Dirbtinis Intelektas: Pavojingas Priešas Ar Malonus Pagalbininkas - Alternatyvus Vaizdas

Video: Dirbtinis Intelektas: Pavojingas Priešas Ar Malonus Pagalbininkas - Alternatyvus Vaizdas

Video: Dirbtinis Intelektas: Pavojingas Priešas Ar Malonus Pagalbininkas - Alternatyvus Vaizdas
Video: Kokias galimybes prekybininkams atveria dirbtinio intelekto panaudojimas? 2024, Gegužė
Anonim

Dirbtinio intelekto (PG) naudojimas kasdieniame gyvenime sparčiai populiarėja, tačiau ši tendencija vis labiau kelia susirūpinimą tarp specialistų. Niujorko universiteto darbuotojai parengė įspėjamąjį raštelį apie I. I naudojimo riziką. Dažniausiai autoriai daugiausia dėmesio skyrė etinėms ir socialinėms problemoms, taip pat reguliavimo trūkumui. Grupės „AI Now“ataskaita sako mažai ką naujo, tačiau pasaulio praktikoje vis labiau keliamas klausimas, ar reikia apriboti dirbtinio mąstymo darbą.

Beveik visi technologinės pažangos žinovai kalbėjo apie galimas AI grėsmes. Stephenas Hawkingas praėjusių metų lapkritį išreiškė pagrindines baimes, lydinčias svarstymus apie technologijos plėtrą. Jo manymu, kompiuteriai anksčiau ar vėliau išmoks save atgaminti. Tikėtina, kad biologiniai padarai praras silicio intelektą tiek dėl protinių sugebėjimų, tiek dėl prisitaikymo prie aplinkos, ypač kitoje planetoje. Anksčiau ar vėliau išmanieji robotai laikys žmones pasenusia forma ir norės jų atsikratyti.

- „Salik.biz“

Hawkingo žodžiai vis dar skamba kaip siaubo istorija, dešimtis kartų vaidinti filmuose ir knygose, tačiau net ir tie, kurie dirba įgyvendinant išmaniąsias sistemas, vis labiau bijojo ateities su AI, nors yra ir tokių, kurie tokias baimes laiko per ankstyvomis. „Šiandien bijoti AI vystymosi yra kaip nerimauti dėl Marso perpildymo“, - teigė „Google Brain“vadovas Andrew Ng. Tačiau jis ne visus nuramino.

Image
Image

Verta paminėti tris didžiausias fobijas, susijusias su kompiuterio įdiegimu į visas gyvenimo sritis. Pirma, kompiuterinis protas bus naudojamas kaip karo ginklas, kuris žymiai pralenks net griaunamąją galią turinčius branduolinius ginklus. Antra, PG pavergs žmones. Trečia, kaip ir bet kuriame žmogaus kūrinyje, kompiuteris yra linkęs į klaidas. Visi trys punktai gali būti aptarti išsamiau.

2017 m. Rugpjūčio 21 d. Vadovaujantys dirbtinio intelekto tyrimų ir diegimo srities ekspertai, įskaitant tokių kompanijų kaip „SpaceX“ir „Deep Mind“vadovus, atsiuntė atvirą laišką JT. Tekste jie perspėjo pasaulio bendruomenę nuo mirtinų autonominių ginklų kūrimo, nesvarbu, ar tai būtų robotai, ar kiti mechanizmai, skirti nužudyti priešą. Dokumento autoriai atkreipė dėmesį į mirtinas tokių ginklų naudojimo pasekmes. Dėl savo fenomenalaus efektyvumo teisinga paklausti, į kurias rankas jis pateks. Juo gali naudotis tiek siauras elito ratas, tiek teroristai.

Laiško autoriai paragino kontrolės organizaciją, o kartu su ja ir mokslo bendruomenę, apibrėžti kenksmingo PG naudojimo mastą. Asmens atsakomybė už savo kūrybą įpareigoja jį atlikti rimtus darbus, kad būtų išvengta rizikos. Be įstatymų, jų kūrėjai taip pat turi apriboti robotų galią, kurie turės galvosūkį, kaip kraštutiniais atvejais išjungti mašinas.

Image
Image

Reklaminis vaizdo įrašas:

Politinis elektroninių sistemų piktnaudžiavimas jau buvo parodytas pasitelkiant socialinius tinklus ir duomenų analizės algoritmus. Šių metų pavasarį pasaulyje griaudėjo skandalas su „Cambridge Analytica“. Jos specialistai atliko nuodugnią vartotojo duomenų analizę ir patalpino skelbimus „Facebook“, pritaikydami individualiai kiekvienam asmeniui.

Bendrovės darbuotojai ne tik peržengė etinę bazę, bet ir pritaikė modernias technologijas, kurių darbo buvo neįmanoma išanalizuoti. Mašinų mokymosi efektyvumas yra pasikartojanti pagrindinių matematikų tema. Jie vieningai pripažįsta, kad yra nustebinti nepaprastos kompiuterinių programų sėkmės, tačiau visiškai nesugeba suprasti sudėtingos sistemos darbo. Šių metų balandį Mianmare „Facebook“įrašai taip pat sukėlė neramumus tarp masių, tačiau skirtingai nei JAV, kur buvo rengiami protestai, Azijos valstybėje buvo įvykdytos žudynės, per kurias žuvo keli šimtai žmonių. Manipuliavimas didžiuliu skaičiumi žmonių yra realybė ir robotai čia gali su mumis žiauriai pajuokauti.

Image
Image

Verta prisiminti tą patį „Facebook“, kuriame buvo pradėti kurti AI pagrįsti pokalbių tinklai. Virtualūs padėjėjai buvo apmokyti palaikyti dialogą su pašnekovu. Laikui bėgant, robotai tapo neatskiriami nuo realių žmonių, o tada autoriai nusprendė suburti robotus. Laikui bėgant, robotai ėmė trumpinti leksines struktūras ir keistis įžūlumu. Žiniasklaida išpūtė sensaciją iš naujienų, jie sako, kad „mašinos sukilo“. Tačiau atmetus žurnalistų perdėtus veiksmus, reikia pripažinti, kad tada, kai mašinos pradeda bendrauti, žmogus gali to nepastebėti. Ir kaip jie ten gyvens savo gyvenimą - niekas nežino.

Kasdien vis sudėtingesnė kompiuterio proto struktūra atitolina supratimą apie jo darbo principus. Nors dauguma algoritmų atlieka savo darbą, net ir šiandien sudėtingos mašinos yra toli gražu ne idealios ir daro klaidas. Tolesniam PG plėtojimui svarbu suprasti ne tiek stipriąsias puses, kiek silpnybes. Būtent į tai sutelkta daugybė mokslinių grupių, vienoje iš kurių yra MIT specialistas iš Anish atali. Vos prieš porą dienų jis žurnalistams papasakojo apie dažniausiai pasitaikančias vaizdo atpažinimo sistemų klaidas.

Jo kolegos pademonstravo daiktus mašinai ir nustatė, kad dažnai atskiri objektai buvo neteisingai suvokiami elektroniniu matymu. Kompiuteris galėjo paskambinti beisbolui puodelį kavos, o 3D atspausdintą vėžlį - armijos mašina. Grupė jau surinko apie 200 elementų, kurie klaidina algoritmus.

Image
Image

Dirbtinis intelektas, užuot suvokęs objektą kaip visumą, koncentruojasi į individualius jo parametrus. AI linkusi mokytis iš „tobulo“pavyzdžio. Susidūręs su neatitinkančiais reiškiniais, jis ne visada gali atsisakyti įprasto apdorojimo proceso. Užuot pripažinęs savo nesugebėjimą apdoroti atvaizdo, jis ir toliau bando perskaityti atvaizdą, ir tai lemia kartais juokingus rezultatus. Vietoj vėžlio formos elektroninės smegenys bandė perskaityti jo tekstūrą, panašiai kaip kamufliažas. Maždaug dėl tos pačios priežasties el. Automobilių autopilotai dar nėra 100% patikimi. Automobiliui sunku pamatyti siluetą ir manyti, kad jį sudaro atskiri elementai.

Ir jei ateinančiais metais kai kuriuos trūkumus bus galima pašalinti, nėra jokios garantijos, kad įsilaužėliai neišnaudos pažeidžiamumo. Šiandien elektroninių prietaisų piratai yra beveik pagrindinė baimės priežastis. Nedidelė programuotojų komanda gali ne tik gauti prieigą prie asmeninės informacijos, bet ir perkonfigūruoti autonomines sistemas, kontroliuodama didžiulės galios įrankius. Ir tada mes visi turėsime bėdų. Tačiau pagrindinė išvada, kurią galima padaryti, yra turbūt tradicinė - reikia bijoti ne automobilius, o žmones.

Aleksandras Lavrenovas