„Dirbtinis Intelektas Kaip Teroristas“: Naujos Grėsmės Saugumui - Alternatyvus Vaizdas

Turinys:

„Dirbtinis Intelektas Kaip Teroristas“: Naujos Grėsmės Saugumui - Alternatyvus Vaizdas
„Dirbtinis Intelektas Kaip Teroristas“: Naujos Grėsmės Saugumui - Alternatyvus Vaizdas

Video: „Dirbtinis Intelektas Kaip Teroristas“: Naujos Grėsmės Saugumui - Alternatyvus Vaizdas

Video: „Dirbtinis Intelektas Kaip Teroristas“: Naujos Grėsmės Saugumui - Alternatyvus Vaizdas
Video: Kokias galimybes prekybininkams atveria dirbtinio intelekto panaudojimas? 2024, Spalio Mėn
Anonim

Rusijos mokslininkai ištyrė ir suklasifikavo dirbtinio intelekto (AI) naudojimo grėsmes tarptautinės informacijos ir psichologinio saugumo požiūriu. Ypatingas dėmesys buvo skirtas kovai su teroristų piktnaudžiavimu PG. Tyrimo rezultatai skelbiami žurnale „Russia in Global Affairs“.

- „Salik.biz“

PG netinkamo naudojimo pavojai

Potencialus dirbtinio intelekto pavojus žmonijai ne kartą tapo meno kūrinių tema ir šiandien yra viena iš labiausiai aptariamų mokslo ir technologijų plėtros klausimų. Nors stipri AI, gebanti savarankiškai sistemingai mąstyti ir turinti savimonę bei valią, dar nėra sukurta, įvairios pažangių silpnų AI versijos atlieka specialias užduotis, kurios prieš 10 metų atrodė kaip mokslinė fantastika. PG naudojimas geriems tikslams (pavyzdžiui, medicinoje) jau duoda neabejotinos naudos. Tačiau teroristų ir kitų nusikalstamų organizacijų rankose palaipsniui pigesnės ir modernesnės PG technologijos gali tapti baisesniu ginklu nei branduolinis.

Įvairių šalių tyrėjai aktyviai tiria grėsmes, kurias piktybinis PG naudojimas kelia visai visuomenei ir tam tikroms žmogaus veiklos sritims, nesvarbu, ar tai būtų politika, ekonomika, kariniai reikalai ir pan., Tačiau grėsmės, tiesiogiai keliančios informaciją tarptautinei informacijai ir psichologiniam saugumui, dar nėra įvardytos kaip savarankiškos. nagrinėjimo sritis. Tuo tarpu AI naudojimas siekiant destabilizuoti tarptautinius santykius, naudojant tikslinę aukštųjų technologijų informaciją ir psichologinį poveikį žmonėms, yra akivaizdus didelis pavojus.

Tyrimo autoriai pasiūlė klasifikuoti grėsmes kenksmingam dirbtinio intelekto naudojimui, remdamiesi daugybe kriterijų, įskaitant teritorinę aprėptį, sklidimo greitį ir formą. Taikydami klasifikaciją galėsite rasti būdų kovoti ir kurti atsakymo priemones.

Ateityje AI technologijų sąnaudų sumažėjimas gali sukelti iš esmės naujų teroristinių išpuolių grėsmę. Gali būti, kad „chatbot“gali būti naudojamas sukonstruoti pranešimą apie suklastotą įvykį ir įtikinti potencialias aukas jį aplankyti. Norint neutralizuoti, patartina supažindinti visuomenę su naujomis grėsmėmis, liepti piliečiams saugotis nuotolinių ryšių su žmonėmis, kurių jie nepažįsta asmeniškai. Išeitis galėtų būti viešų renginių sertifikavimas, patvirtinantis apie juos paskelbtos informacijos realumą. Be abejo, techninių specialistų užduotis šiuo atveju bus įvykių duomenų bazių apsauga ir jų sertifikavimo mechanizmas “, -„ RIA Novosti “sakė RIAEPA Rusijos tarptautinio saugumo ir užsienio politikos departamento profesorė Daria Bazarkina.

Šiuolaikinis AI technologijų ir galimybių lygis leidžia mums nustatyti daugybę iš esmės naujų grėsmių asmens informacijai ir psichologiniam saugumui.

Reklaminis vaizdo įrašas:

„Netikrų žmonių“ir „giluminių klaidų“technologijų panaudojimas tarptautinėms provokacijoms

Amerikos technologijų įmonė NVIDIA neseniai pasidalino genetiškai konkurencingo tinklo, apmokyto kurti savo žmonių vaizdus („netikrų žmonių“), rezultatais. Neuroninis tinklas per kelias sekundes sukuria didelės raiškos neegzistuojančių žmonių veidų vaizdus, gali pridėti bet kokius kultūrinius ir etninius bruožus, emocijas, nuotaiką ir yra pagrįstas begaline tikrų veidų vaizdų kolekcija. Ateityje gali būti, kad šią patirtį pakartos ir kiti kūrėjai. Tuo pačiu metu tokius vaizdus nusikaltėliai gali naudoti visokioms provokacijoms, kurias gali atpažinti tik sisteminių politechninių žinių turinti visuomenė.

„Deepfake“technologija gali sintetinti žmogaus įvaizdį ir balsą. Jis jau pradėtas naudoti kuriant vaizdo įrašus su pasaulio lyderiais, įskaitant JAV prezidentą Donaldą Trumpą ir Rusijos prezidentą Vladimirą Putiną. „Deepfake“vaizdo įrašai gali manipuliuoti didelių tikslinių grupių elgesiu ir gali būti naudojami informacijos ir psichologinėje konfrontacijoje (IPP) siekiant išprovokuoti finansinę paniką ar karą “, - teigė Jevgenijus Pashentsevas, vadovaujantis Rusijos užsienio reikalų ministerijos Diplomatinės akademijos Šiuolaikinių tarptautinių klausimų instituto tyrėjas, Maskvos valstybinio universiteto profesorius.

Sentimentų analizė - tai kompiuterinės kalbotyros turinio analizės metodų klasė, skirta automatiškai aptikti emociškai spalvotą žodyną ir emociškai įvertinti autorius tekstuose. Sentimentų analizę teikia daugybė šaltinių, tokių kaip tinklaraščiai, straipsniai, forumai, apklausos ir kt. Tai gali būti labai efektyvi priemonė API, kurią, pavyzdžiui, patvirtina didelis JAV specialiųjų operacijų vadovybės vadovybės susidomėjimas tokiais pokyčiais. (Jungtinių Valstijų specialiųjų operacijų vadavietė (SOCOM).

„Nuspėjamasis ginklas“: Žmogaus elgesio numatymas remiantis socialinės žiniasklaidos duomenimis

2012 m. JAV išplėstinė intelekto tyrimų agentūra (IARPA) pradėjo ankstyvojo modelio pagrindu pagrįstų įvykių atpažinimą naudojant Surrogates (EMBERS) programą. Plėtros tikslas vadinamas pilietinių neramumų prognozavimu remiantis AI naudojimu nustatant datą, vietą, protestuojant gyventojų grupę.

Sistema apdoroja žiniasklaidos ir socialinių tinklų duomenis, taip pat aukštesnės kokybės šaltinius, pavyzdžiui, ekonominius rodiklius. Tokių programų kritimas į teroristų rankas, be abejo, taip pat yra nepaprastai pavojingas. Šiuo atveju tikėtina grėsmė gali tapti dideli teroristiniai išpuoliai per plačiausias socialines demonstracijas. Papildomas kriterijus renkantis teroristinio išpuolio taikinius gali būti tam tikros srities socialinės ir psichologinės įtampos laipsnis.

Anot tyrimo autorių, kaip atsakomąją priemonę prognozuojamąją analizę gali naudoti pati valstybė ir viršnacionalinės valdžios institucijos, norėdamos užkirsti kelią socialinei įtampai (laiku priimti socialines, ekonomines ir politines priemones, kuriomis siekiama ilgalaikio stabilumo).

Be to, teroristų grupuotės gali padaryti žalos reputacijai naudodamos botus politinių kampanijų metu, taip pat pritraukti naujų rėmėjų ar organizuoti politikų žmogžudystes.

Fiksuoti dronai ir robotų infrastruktūra

Savarankiškai mokomos transporto sistemos su AI kontrole gali būti patogios aukštųjų technologijų teroro išpuolių taikymo vietos. Teroristai konfiskavę transporto kontrolės sistemą dideliame mieste gali sukelti daugybę aukų, sukelti paniką ir sukurti psichologinį klimatą, kuris palengvins kitokią nusikalstamą veiklą.

Komercinės sistemos gali būti naudojamos bepiločiams orlaiviams ar autonominėms transporto priemonėms dislokuoti ir sprogmenims sukelti. Didelių nelaimių serija gali sukelti sujudimą tarptautinėje žiniasklaidoje ir padaryti didelę žalą informacijai ir psichologiniam saugumui.

Rusijos prezidento nacionalinės ekonomikos ir viešojo administravimo akademijos ir Rusijos Federacijos užsienio reikalų ministerijos Diplomatinės akademijos tyrėjai savo tyrimus pagrindė sistemine AI vaidmens saugumo srityje analize, scenarijų analizės metodu, istorinėmis analogijomis ir atvejo analize. Kartu su kolega iš Upsalos universiteto (Švedija) Grego Simonso, tyrimo autoriai tapo būsimos knygos „Terorizmas ir pažangiosios technologijos informacinėje-psichologinėje konfrontacijoje: nauji pavojai, naujos galimybės kovoti su terorizmo grėsme“bendraautoriais, dalyvaujant tyrėjams iš 11 šalių.

Rusijos tyrėjų iniciatyva aktyviai aptariama PG vaidmens grėsmė tarptautinei informacijai ir psichologinis saugumas problema, ji bus aptariama tarptautinėse konferencijose ir autonominiuose tarptautiniuose tyrimų seminaruose. Tarp jų - konferencija, globojama Rusijos Federacijos UNESCO komisijos ir daugelio kitų Rusijos ir tarptautinių struktūrų, Hanto-Mansijske birželio 9–12 dienomis. Chantino-Mansiiskio autonominio apygardos gubernatorė Natalija Vladimirovna Komarova aktyviai dalyvavo skyriaus, kuriame aptariama piktybinio intelekto naudojimo problema, sesijoje, sudarytoje remiant Europos ir Rusijos komunikacijos valdymo ekspertų tinklą (ERESKM), sesijoje. Ateityje tai bus IV Ibero-Amerikos forumas Sankt Peterburge 2019 m. Spalio 1–3 d. Europos konferencija apie dirbtinio intelekto ir robotikos poveikį 2019 m. Spalio 31 d. – lapkričio 1 d. Tyrimų autoriai pristatė mokslo ataskaitas Argentinoje, Urugvajuje, Brazilijoje, Pietų Afrikoje ir Italijoje.

Anot RANEPA ir Diplomatinės akademijos specialistų, Rusijos mastu yra nepaprastai svarbu nustatyti ilgalaikių tikslinių programų formavimą, nes AI ir tarptautinės informacijos bei psichologinio saugumo problema yra artimiausios ateities problema.