Kokius Nervinių Tinklų Pavojus Mes Nepakankamai įvertiname? - Alternatyvus Vaizdas

Turinys:

Kokius Nervinių Tinklų Pavojus Mes Nepakankamai įvertiname? - Alternatyvus Vaizdas
Kokius Nervinių Tinklų Pavojus Mes Nepakankamai įvertiname? - Alternatyvus Vaizdas
Anonim

Ar kada nors gatvėje sutikote žmogų, kuris būtų vienas su kitu, kaip jūs? Drabužiai, veidas, eisena, bendravimo būdas, įpročiai yra visiškai tokie patys kaip jūsų. Tai panašu į nuskaitymą ir spausdinimą spausdintuve. Skamba šiek tiek baisiai, ar ne? Dabar įsivaizduokite, kad matėte vaizdo įrašą, kuriame toks žmogus kažką pasakoja apie save. Geriausiu atveju bandysite prisiminti, kai vaikščiojote taip, kad nieko neprisiminėte, bet galėtumėte tai pasakyti per kamerą. Nors visa tai skamba kaip paprastas samprotavimas, tačiau kuriant tokius žmones technologijos jau yra labai artimos. Jie jau egzistuoja, bet netrukus jų bus dar daug.

- „Salik.biz“

Iš kur atsiranda padirbinėjimas?

Dabar jau yra per daug dalykų, kurie paprastai vadinami klastotėmis. Jie yra visur. Jų galima rasti nuotraukose, naujienose, gaminant prekes ir teikiant informacijos paslaugas. Lengviau pasakyti, kur nėra reiškinių, lydinčių šį žodį. Kol galite su jais kovoti. Galite išsiaiškinti nuotraukos kilmę, patikrinti išskirtinius prekės ženklo gaminio požymius nuo klastotės ir dar kartą patikrinti naujienas. Nors naujienos yra atskira tema.

Šiais laikais turinio vartotojas nenori laukti ir reikalauja iš savo kūrėjo greito gaminimo, kartais net nesirūpina kokybe, svarbiausia - greitai. Čia iškyla situacijų, kai kažkas ką nors pasakė, o kiti, nepatikrinę to, paėmė tai iš savo svetainių ir laikraščių. Kai kuriais atvejais reikia ilgai sugriebti šį rutulį ir įrodyti, kad viskas buvo neteisinga.

Nėra prasmės aiškinti, kodėl visa tai daroma. Viena vertus, yra tokių, kurie nori tiesiog juoktis iš susidariusios situacijos, kita vertus, tų, kurie iš tikrųjų nežinojo, kad klysta. Atskirą vietą, apytiksliai viduryje, užima tie, kuriems pelnoma pasipelnyti. Tai gali būti įtakos interesai įvairiais lygiais, įskaitant politinį. Kartais tai yra pelno siekimas. Pavyzdžiui, sėjant paniką akcijų rinkoje ir atliekant pelningus sandorius su vertybiniais popieriais. Tačiau dažnai tai įvyksta dėl priešiškumo žmogui (įmonei, produktui ir t. T.) Siekiant jį įžeisti. Paprastas pavyzdys yra kažkieno nepageidaujamo filmo ar institucijos reitingų „kritimas“. Be abejo, tam reikia armijos tų, kurie eis ir pristatys nepatinkančius daiktus (kartais net botus), bet tai jau kita istorija.

Kas yra gilus mokymasis?

Reklaminis vaizdo įrašas:

Pastaruoju metu šis terminas skamba vis dažniau. Kartais jis net nesusijęs su byla ir yra painiojamas su kažkuo kitu. Taigi programinės įrangos produktas atrodo įspūdingesnis.

Nemanykite, kad mašininio mokymosi koncepcija ir pagrindiniai principai atsirado tik prieš kelerius metus. Tiesą sakant, jiems yra tiek metų, kad daugelis iš mūsų net negimėme tada. Pagrindiniai giluminio mokymosi sistemų principai ir jų darbo matematiniai modeliai buvo žinomi praėjusio amžiaus 80-aisiais.

Tuo metu jie neturėjo tiek prasmės, nes trūko vieno svarbaus komponento. Tai buvo didelė skaičiavimo galia. Tik 2000-ųjų viduryje atsirado sistemos, kurios gali padėti dirbti šia linkme ir leisti apskaičiuoti visą reikiamą informaciją. Dabar mašinos dar labiau tobulėjo, o kai kurios mašinų matymo, balso suvokimo ir kai kurios kitos veikia taip efektyviai, kad kartais net pranoksta žmogaus galimybes. Nors jie dar nėra „įkalinti“atsakingais nurodymais, todėl jie papildo žmogaus galimybes išlaikant jų kontrolę.

Image
Image

Kas yra Deepfake? Kada atsirado „Deepfake“?

Nesunku atspėti, kad „Deepfake“yra maža žodžių, susijusių su giluminiu mokymu, žaismas ir pačios klastotės, apie kurias kalbėjau aukščiau. Tai yra, „Deepfake“turėtų padirbti į naują lygį ir iškrauti žmogų šiame sudėtingame versle, leisdamas jiems sukurti netikrą turinį, nešvaistydamas energijos.

Visų pirma, tokios klastotės yra susijusios su vaizdo įrašais. T. y., Bet kuris asmuo gali sėdėti prieš kamerą, ką nors pasakyti, o jo veidas bus pakeistas kitu asmeniu. Tai atrodo baisiai, nes iš tikrųjų jums tiesiog reikia pagauti pagrindinius žmogaus judesius ir atskirti klastotę bus tiesiog neįmanoma. Pažiūrėkime, kaip viskas prasidėjo.

Pirmąjį kartinį varžovų tinklą sukūrė Stanfordo universiteto studentas. Tai įvyko 2014 m., O studento vardas buvo Ianas Goodfellow. Tiesą sakant, jis sumetė du nervinius tinklus vienas prieš kitą, vienas jų buvo susijęs su žmonių veidų generavimu, o antrasis juos analizavo ir kalbėjo panašiai, ar ne. Taigi jie treniravosi vienas kitą ir vieną dieną antrasis nervų tinklas pradėjo sumišti ir generuotus vaizdus imti iš tikrųjų. Būtent ši vis sudėtingesnė sistema gimdo „Deepfake“.

Dabar vienas pagrindinių „Deepfake“idėjos skleidėjų yra Hao Li. Jis daro ne tik tai, bet ir daugelis kitų. Už tai jis ne kartą buvo apdovanotas įvairiais apdovanojimais, įskaitant neoficialius. Beje, jis yra iš tų, kuriems turėtų būti dėkojama už animoji pasirodymą „iPhone X“. Jei susidomėjote, galite išsamiau susipažinti su jo tinklalapiu. Šiandien jis nėra pagrindinė diskusijų tema.

Jį prisiminėme tik todėl, kad Davosoje vykusiame Pasaulio ekonomikos forume jis parodė savo paraišką, kuri leis jums pakeisti priešais kamerą sėdinčio asmens veidą kitu veidu. Visų pirma jis parodė, kaip sistema veikia, kalbant apie Leonardo DiCaprio, Willo Smitho ir kitų garsių žmonių veidus.

Tai atrodo šiek tiek baugu. Viena vertus, galite tik grožėtis šiuolaikinėmis technologijomis, kurios leidžia nuskaityti veidą, pakeisti jį kitu keliaujant ir sukurti naują paveikslėlį. Visa tai užtrunka sekundę ir sistema net nesulėtėja. Tai yra, tai leidžia ne tik apdoroti gatavą vaizdo įrašą ir pakeisti veidą, bet ir dalyvauti tokiame personaže tam tikroje tiesioginio vaizdo komunikacijoje.

Deepfake pavojus. Kaip pakeisti vaizdo veidą?

Galite kalbėti tiek, kiek jums patinka, kad ši technologija yra reikalinga, ji yra labai šauni ir nereikia šmeižti. Jūs netgi galite pereiti į kraštutinumus ir pradėti sakyti, kad tai yra nuožmaus senojo žmogaus, kuris tiesiog bijo visko naujo, pozicija, tačiau iš tikrųjų yra daugiau pavojų nei naudos.

Naudodamiesi tokia technologija, ypač jei ji yra atvirojo kodo, kiekvienas galės naršyti ir įrašyti bet kokį vaizdo įrašą. Neblogai, jei tai tiesiog niekina kažkieno garbę ir orumą, dar blogiau, jei tai yra pareiškimas, pateiktas svarbaus asmens vardu. Pavyzdžiui, įrašę tik 30–40 sekundžių trukmės vaizdo įrašą Timo Cooko vardu, galite nugruntuoti beveik visą JAV IT sferą, kuriai vadovauja „Apple“. Akcijų rinka bus paveikta taip stipriai, kad sukels paniką tarp investuotojų. Dėl to tūkstančiai žmonių praras milijardus dolerių.

Visi, kuriems nepatinka šis būdas užsidirbti, sakys, kad tai yra tai, ko jiems reikia, tegul eina į augalą. Tačiau pagal liūdniausią scenarijų po to augalų nebus. Be to, apmaudu, kad sulaukiame žmogaus, kuris apgaudinėja vertybinių popierių vertės svyravimus. Pakanka tik nusipirkti ir parduoti laiku.

Padėtis gali būti dar blogesnė, jei „juokdarys“pasisakys didelės valstybės vadovo vardu. Žinoma, tada viskas paaiškės, tačiau per tą laiką galite padaryti daug nemalonių dalykų. Atsižvelgiant į tai, tiesiog pakeisti įžymybės veidą suaugusiojo filme esančiam aktoriui būtų nekalta išdaiga.

Naudojant tokias technologijas, svarbiausia yra nuskaityti, o tada jau technologijos klausimas. Tikrąja to žodžio prasme
Naudojant tokias technologijas, svarbiausia yra nuskaityti, o tada jau technologijos klausimas. Tikrąja to žodžio prasme

Naudojant tokias technologijas, svarbiausia yra nuskaityti, o tada jau technologijos klausimas. Tikrąja to žodžio prasme.

Galite įsivaizduoti priešingą situaciją, kai tikras žmogus ką nors pasako, o tada visiems patikina, kad jis buvo įrėmintas. Kaip būti tokioje situacijoje, taip pat nėra labai aišku. Tai sukels tokią painiavą naujienų sklaidos kanaluose, kad tiesiog neįmanoma jos dar kartą patikrinti kitame šaltinyje. Dėl to bus neaišku, kas šiame pasaulyje yra tiesa ir kas yra netikra. Vaizdai atsiranda iš filmų apie niūrią ateitį, pavyzdžiui, „Surrogates“ar „Terminator“, kur „T-1000“prisistatė kaip kiti žmonės ir, be kita ko, savo įtėvio vardu pavadino Johną Conorą.

Dabar net nekalbu apie kitą piktnaudžiavimą, kuris leis rinkti melagingus įrodymus. Atsižvelgiant į tai, visos žaislo linksmybės tampa pernelyg abejotinos.

Kaip aptikti „Deepfake“?

Problema net nėra ta, kad tokios sistemos turėtų būti uždraustos, bet ir tai, kad tai nebeįmanoma. Jų jau yra, o technologijų plėtra, įskaitant veidų skaitymą, lėmė jų atsiradimą ir atviro kodo plitimą. Net jei įsivaizduojame, kad dabartine forma nustoja egzistuoti, turime suprasti, kad ji bus sukurta iš naujo. Jie tiesiog dar kartą išmokys neuroninius tinklus dirbti tarpusavyje ir viskas.

Kol kas ne viskas yra taip baisu, ir jūs galite tiesiogine prasme atpažinti klastotę plika akimi. Vaizdas panašus, tačiau gana šiurkštus. Be to, ji kartais turi tam tikrų maišymo problemų, ypač aplink veido kraštus. Tačiau niekas nestovi vietoje ir dar nėra sunku jį išplėsti. Tas pats Hao Li įsitikinęs, kad tai užtruks ne ilgiau kaip keletą mėnesių, ir sukurti „kaukes“, kurių net kompiuteris negali atskirti, prireiks dar keleto metų. Po to atgal nebebus.

Viena vertus, nuo to gali apsaugoti algoritmas, kurį jau kuria „YouTube“ir „Facebook“. Beje, pastaroji netgi paskelbė konkursą atpažinimo technologijos plėtrai - „Deepfake Detection Challenge“(„Užduoties aptikti gilius įvykius“). Šio konkurso prizinis fondas yra 10 milijonų dolerių. Konkursas jau vyksta ir baigsis 2020 m. Kovo mėn. Jūs vis tiek galite turėti laiko dalyvauti.

Veido pakeitimas vaizdo įraše nebėra problema
Veido pakeitimas vaizdo įraše nebėra problema

Veido pakeitimas vaizdo įraše nebėra problema.

Galbūt šis dosnumas atsiranda dėl suklastoto vaizdo įrašo su pačiu Marku Zuckerbergu. Jei šie du dalykai yra susiję, tokio konkurso atsiradimas nestebina.

Jei pakeistas veidas visiškai atitinka originalą, specialiojo neuroninio tinklo atstovaujama jėga bus bejėgė. Tokiu atveju ji turės pastebėti kuo mažesnius veido išraiškų, judesių ir kalbėjimo būdų skirtumus. Garsių žmonių atveju tokia problema bus išspręsta vaizdo paslaugų lygiu, nes ta pati „YouTube“žino, kaip juda įprastas Donaldas Trumpas. Kai kalbama apie mažiau žinomą asmenį, jis tampa sudėtingesnis. Nors tai taip pat gali būti įrodyta pastačius jį prieš kamerą ir atsitiktinį pokalbį, kol nervų tinklas analizuoja jo judesius. Tai paaiškės kažkuo panašu į pirštų atspaudų tyrimą, tačiau, kaip matome, tai vėl sukels nereikalingų sunkumų.

Taip pat galima apeiti vaizdo autentiškumo tikrinimo sistemas. Galite priversti fotoaparatą pažymėti užfiksuotą vaizdo įrašą ir akivaizdu, kad jis nebuvo nufilmuotas per atskirą programą ar apdorotas specialioje programoje. O kaip su ką tik apdorotais vaizdo įrašais? Pavyzdžiui, redaguotas interviu. Dėl to gausime vaizdo įrašą, kuriame originalus raktas nebebus.

Kelios meemos pabaigoje
Kelios meemos pabaigoje

Kelios meemos pabaigoje.

Ar galima sakyti, kad dabar mes nubraižėme vieną iš tamsios ateities scenarijų? Apskritai, taip. Jei technologijos, kurios buvo sukurtos geriems tikslams pasiekti, išeis iš rankų, jas galima gurkšnoti. Tiesą sakant, yra daug tokių pavojingų technologijų variantų, tačiau dauguma jų yra apsaugoti. Pavyzdžiui, branduolių sintezė. Čia kalbame apie kodą, kurį gali gauti kiekvienas.

Parašykite komentaruose, kaip matote apsaugą nuo padirbinėjimo, manydami, kad maskavimo sistema galėjo padaryti kaukes visiškai tapačias originaliems veidams. Kadangi jie yra vaizdo įraše, net negalite jiems pritaikyti gylio ir garsumo atpažinimo. Be to, tarkime, kad bet kokį į paveikslėlį įterptą kodą ir raktą galima nulaužti. Kaip sakoma, būtų už ką. Dabar galime diskutuoti, visas įžanginis tekstas yra.

Artemas Sutyaginas