Kaip Neuroniniai Tinklai Buvo Išmokyti Suklastoti Naujienų Vaizdą - Alternatyvus Vaizdas

Turinys:

Kaip Neuroniniai Tinklai Buvo Išmokyti Suklastoti Naujienų Vaizdą - Alternatyvus Vaizdas
Kaip Neuroniniai Tinklai Buvo Išmokyti Suklastoti Naujienų Vaizdą - Alternatyvus Vaizdas

Video: Kaip Neuroniniai Tinklai Buvo Išmokyti Suklastoti Naujienų Vaizdą - Alternatyvus Vaizdas

Video: Kaip Neuroniniai Tinklai Buvo Išmokyti Suklastoti Naujienų Vaizdą - Alternatyvus Vaizdas
Video: Результаты выборов и покушение на Порошенко || Держитесь там || S2E25 2024, Balandis
Anonim

Sukurti klastotės yra naudojamos dirbtinio intelekto sistemos ir technologijos vaizdo ir garso klastotėms generuoti.

Norint sukurti „individualų“naujienų paveikslėlį bet kuriam iš mūsų ir suklastoti jame pasirinktas žiniasklaidos ataskaitas, šiandien pakanka vieno programuotojo pastangų. Apie tai „Izvestija“pasakojo dirbtinio intelekto ir kibernetinio saugumo specialistai. Visai neseniai jie apskaičiavo, kad tam reikia kelių komandų darbo. Toks pagreitis tapo įmanomas plėtojant atakų prieš neuroninius tinklus technologijas ir sukuriant garso bei vaizdo klastojimus, naudojant programas „giliesiems klastotėms“kurti. Laikraštis „Izvestia“neseniai ištiko panašią ataką, kai trys Libijos naujienų portalai iškart paskelbė pranešimą, kuris neva pasirodė viename iš leidinių. Pasak ekspertų, per 3–5 metus galima tikėtis robotizuotų manipuliatorių invazijos, kuri automatiškai sugebės sukurti daugybę padirbinių.

- „Salik.biz“

Drąsus naujas pasaulis

Buvo vis daugiau projektų, kurie pritaiko informacijos vaizdą pagal konkrečių vartotojų suvokimą. Vienas iš jų darbo pavyzdžių buvo neseni trijų Libijos portalų veiksmai, kurie paskelbė naujienas, tariamai išspausdintas lapkričio 20 d. „Izvestija“leidinyje. Klastotės kūrėjai pakoregavo laikraščio pagrindinį puslapį, paskelbdami jame pranešimą apie lauko maršalo Khalifa Haftar ir Nacionalinio susitarimo vyriausybės (PNS) ministro pirmininko Fayezo Sarrajaus derybas. Suklastota „Izvestia“šriftu buvo pridėta dviejų lyderių nuotrauka, padaryta 2017 m. Gegužės mėn. Etiketė su leidinio logotipu buvo nukirpta nuo tikrojo paskelbto lapkričio 20 d., O visi kiti teksto puslapyje nuo spalio 23 d.

Specialistų požiūriu, artimiausioje ateityje tokios klastotės gali būti padarytos automatiškai.

Image
Image

„Dirbtinio intelekto technologijos yra visiškai atviros, o prietaisai duomenims priimti ir apdoroti yra miniatiūruojami ir tampa pigesni“, - „Izvestija“pasakojo Jurijus Vilsiteris, fizinių ir matematikos mokslų daktaras, Rusijos mokslų akademijos profesorius, FSUE „GosNIIAS“skyriaus vadovas. - Todėl labai tikėtina, kad netolimoje ateityje net valstybė ir didelės korporacijos, o tiesiog privatūs asmenys galės mus išgirsti ir šnipinėti, taip pat manipuliuoti realybe. Ateinančiais metais, analizuodami vartotojo nuostatas, bus įmanoma paveikti jį per naujienų kanalus ir labai protingas klastotes.

Reklaminis vaizdo įrašas:

Pasak Jurijaus Vilsiterio, technologijos, kurios gali būti naudojamos tokiai intervencijai į psichinę aplinką, jau yra. Teoriškai, per keletą metų galima tikėtis manipuliatorių robotų invazijos, sakė jis. Ribotas momentas gali būti poreikis rinkti dideles duomenų bazes, kuriose pateikiami realių žmonių reagavimo į dirbtinius dirgiklius pavyzdžiai su ilgalaikėmis pasekmėmis. Tikėtina, kad tokiam sekimui prireiks dar keleto metų tyrimų, kad būtų nuosekliai gaunamos tikslinės atakos.

Regėjimo priepuolis

Aleksejus Parfentjevas, „SearchInform“analitikos skyriaus vadovas, sutinka su Jurijumi Vilsiteriu. Anot jo, ekspertai jau prognozuoja atakas prieš neuroninius tinklus, nors dabar tokių pavyzdžių praktiškai nėra.

- „Gartner“tyrėjai mano, kad iki 2022 m. 30% visų kibernetinių atakų bus siekiama sugadinti duomenis, kuriuose treniruojasi neuroninis tinklas, ir pavogti paruoštus mašinų mokymosi modelius. Tada, pavyzdžiui, nepilotuojamos transporto priemonės gali staiga klaidinti pėstiesiems dėl kitų objektų. Kalbėsime ne apie finansinę ar reputacijos riziką, o apie paprastų žmonių gyvybę ir sveikatą, tikina ekspertas.

Kompiuterinio matymo sistemų išpuoliai vykdomi kaip tyrimų dalis dabar. Tokių išpuolių tikslas yra priversti neuroninį tinklą vaizde aptikti tai, ko nėra. Arba, atvirkščiai, nematyti to, kas buvo suplanuota.

Image
Image

„Viena iš nervų tinklų mokymo srityje aktyviai plėtojamų temų yra vadinamosios varžovų atakos („ priešiškos atakos “-„ Izvestija “)“, - aiškino „Kaspersky Lab“interneto analitikas Vladislavas Tushkanovas. - Daugeliu atvejų jie yra nukreipti į kompiuterinio matymo sistemas. Norėdami įvykdyti tokią ataką, daugeliu atvejų turite turėti visišką prieigą prie neuroninio tinklo (vadinamosios baltojo dėžės atakos) arba jo darbo rezultatus (juodųjų dėžių išpuoliai). Nėra metodų, kurie 100% atvejų galėtų apgauti bet kurią kompiuterinę regos sistemą. Be to, jau yra sukurtos priemonės, leidžiančios išbandyti neuroninius tinklus, ar nėra atsparumo varžovų išpuoliams, ir padidinti jų atsparumą.

Tokios atakos metu užpuolikas bando kažkaip pakeisti atpažintą vaizdą, kad nervų tinklas neveiktų. Dažnai ant nuotraukos uždedamas triukšmas, panašus į tą, kuris atsiranda fotografuojant prastai apšviestoje patalpoje. Žmogus paprastai gerai nepastebi tokių trukdžių, tačiau pradeda veikti nervų tinklas. Bet norint įvykdyti tokią ataką, užpuolikui reikia prieigos prie algoritmo.

Pasak „Neuroset Ashmanov“generalinio direktoriaus Stanislavo Ashmanovo, šiuo metu nėra jokių būdų, kaip išspręsti šią problemą. Be to, ši technologija prieinama kiekvienam: paprastas programuotojas gali ja naudotis atsisiųsdamas reikiamą atvirojo kodo programinę įrangą iš „Github“paslaugos.

Image
Image

- Nervinio tinklo ataka yra metodas ir algoritmai apgaulingam neuroniniam tinklui, kurie priverčia jį pateikti klaidingus rezultatus ir iš tikrųjų sulaužyti jį kaip durų užraktą, - tikina Ašmanovas. - Pavyzdžiui, dabar gana lengva priversti veido atpažinimo sistemą galvoti, kad priešais ją esate ne jūs, o Arnoldas Schwarzeneggeris - tai daroma sumaišant žmogaus akiai nematomus priedus į duomenis, įvedamus į nervų tinklą. Tie patys išpuoliai galimi ir kalbų atpažinimo bei analizės sistemoms.

Ekspertas įsitikinęs, kad tik blogės - šios technologijos išėjo į masę, sukčiai jas jau naudoja, o apsaugos nuo jų nėra. Kadangi nėra apsaugos nuo automatizuoto vaizdo ir garso klastojimų.

Gilios klastotės

Deepfake technologijos, pagrįstos giliu mokymu (neuroninių tinklų gilaus mokymosi technologijos. - Izvestija), jau kelia realią grėsmę. Vaizdo ar garso klastotės sukuriamos taisant ar perdengiant garsių žmonių veidus, kurie tariamai taria reikiamą tekstą ir vaidina būtiną vaidmenį siužete.

„Deepfake“leidžia pakeisti lūpų judesius ir žmogaus kalbą vaizdo įrašu, sukuriančiu realybės jausmą, kas vyksta “, - sako Andrejus Busarginas,„ Inovatyvios prekės ženklo apsaugos ir intelektualinės nuosavybės departamento “grupės„ IB “direktorius. - Netikros įžymybės „siūlo“vartotojams socialiniuose tinkluose dalyvauti vertingų prizų (išmaniųjų telefonų, automobilių, pinigų sumų) ir kt. Pritraukime. Šių vaizdo įrašų nuorodos dažnai nukreipia į apgaulingas ir sukčiavimo svetaines, kuriose naudotojų prašoma įvesti asmeninę informaciją, įskaitant banko kortelės informaciją. Tokios schemos kelia grėsmę tiek paprastiems vartotojams, tiek visuomenės veikėjams, kurie minimi reklamose. Dėl tokio shenanigano garsenybių vaizdai tampa siejami su sukčiavimu ar reklamuojamomis prekėmis.ir štai mes patiriame žalą asmeniniam prekės ženklui “, - sako jis.

Image
Image

Kita grėsmė yra susijusi su „netikrų balsų“naudojimu telefoniniam sukčiavimui. Pavyzdžiui, Vokietijoje kibernetiniai nusikaltėliai pasinaudojo balso įrašais, kad JK dukterinės įmonės vadovas telefoniniame pokalbyje skubiai pervestų 220 000 eurų į Vengrijos tiekėjo sąskaitą, nurodydamas, kad yra įmonės vadovas. Britanijos firmos vadovas įtarė apgaulę, kai jo „viršininkas“paprašė antrojo pinigų pervedimo, tačiau skambutis kilo iš Austrijos numerio. Iki to laiko pirmoji dalis jau buvo pervesta į sąskaitą Vengrijoje, iš kurios pinigai buvo paimti į Meksiką.

Pasirodo, kad dabartinės technologijos leidžia sukurti individualų naujienų paveikslėlį, užpildytą netikra žinia. Be to, greitai bus galima atskirti klastotes nuo tikro vaizdo ir garso tik aparatūros pagrindu. Pasak ekspertų, priemonės, draudžiančios plėtoti nervinius tinklus, greičiausiai nebus veiksmingos. Todėl netrukus mes gyvensime pasaulyje, kuriame reikės nuolat viską kartoti.

„Turime tam pasiruošti ir turime tai priimti“, - pabrėžė Jurijus Vilsiteris. - Žmonija ne pirmą kartą pereina iš vienos realybės į kitą. Mūsų pasaulis, gyvenimo būdas ir vertybės kardinaliai skiriasi nuo pasaulio, kuriame protėviai gyveno prieš 60 000 metų, prieš 5000 metų, 2000 metų ir net prieš 200–100 metų. Artimiausiu metu asmeniui iš esmės bus panaikintas privatumas, todėl jis bus priverstas nieko neslėpti ir elgtis sąžiningai. Tuo pačiu metu nieko negalima supančios tikrovės ir savo asmenybės tikėjimu, viskas turės būti kvestionuojama ir nuolat tikrinama. Bet ar ši ateities tikrovė bus baisi? Ne. Tai bus tiesiog visiškai kitaip.

Anna Urmantseva