Sadržaj:

Duboki lažnjaci: Neuroset je naučen generirati zvučne i video lažne
Duboki lažnjaci: Neuroset je naučen generirati zvučne i video lažne

Video: Duboki lažnjaci: Neuroset je naučen generirati zvučne i video lažne

Video: Duboki lažnjaci: Neuroset je naučen generirati zvučne i video lažne
Video: Beyond Mach: US Finally Showed Their Incredibly Fast Hypersonic Aircraft 2024, Svibanj
Anonim

Za stvaranje “pojedinačne” slike vijesti za bilo koga od nas i za lažiranje medijskih izvještaja odabranih u njoj, danas je dovoljan trud jednog programera. O tome su Izvestiji rekli stručnjaci za umjetnu inteligenciju i kibernetičku sigurnost.

Nedavno su procijenili da je za to potreban rad više timova. Takvo ubrzanje postalo je moguće s razvojem tehnologija za napade na neuronske mreže i generiranjem audio i video lažnjaka pomoću programa za kreiranje “dubokih lažnjaka”. Sličnom napadu nedavno je podvrgnut i list Izvestija, kada su tri libijska novinska portala odjednom objavila poruku koja se navodno pojavila u jednom od brojeva. Prema riječima stručnjaka, u roku od 3-5 godina možemo očekivati invaziju robotskih manipulatora, koji će automatski moći stvoriti mnogo lažnjaka.

Hrabri novi svijet

Sve je više projekata koji informacijsku sliku prilagođavaju percepciji konkretnih korisnika. Jedan od primjera njihovog rada bila je nedavna akcija tri libijska portala, koji su objavili vijest navodno objavljenu u izdanju Izvestija 20. studenog. Kreatori lažnog izmijenili su naslovnu stranicu novina, objavivši na njoj poruku o pregovorima između feldmaršala Khalife Haftara i premijera Vlade nacionalnog jedinstva (PNS) Fayeza Sarraja. Lažnu, napisanu fontom Izvestia, pratila je fotografija dvojice vođa snimljena u svibnju 2017. Oznaka s logom publikacije izrezana je iz stvarno objavljenog broja od 20. studenog, a svi ostali tekstovi na stranici iz broja od 23. listopada.

Sa stajališta stručnjaka, u dogledno vrijeme takvi se krivotvorine mogu učiniti automatski.

The Truman Show - 2019: Kako su neuronske mreže naučile lažirati sliku vijesti
The Truman Show - 2019: Kako su neuronske mreže naučile lažirati sliku vijesti

"Tehnologije umjetne inteligencije sada su potpuno otvorene, a uređaji za primanje i obradu podataka minijaturiziraju se i postaju jeftiniji", rekao je Yuri Vilsiter, doktor fizikalnih i matematičkih znanosti, profesor Ruske akademije znanosti, voditelj odjela FSUE "GosNIIAS", rekao je za Izvestije. - Stoga je velika vjerojatnost da nas u bliskoj budućnosti neće moći prisluškivati i špijunirati, kao i manipulirati stvarnošću, čak ni država i velike korporacije, nego jednostavno privatnici. Sljedećih godina bit će moguće, analizom preferencija korisnika, utjecati na njega putem vijesti i vrlo pametnih lažnjaka.

Prema Yuri Vilsiteru, tehnologije koje se mogu koristiti za takvu intervenciju u mentalnom okruženju već postoje. U teoriji, invazija robotskih botova može se očekivati za nekoliko godina, rekao je. Ograničavajuća točka ovdje može biti potreba za prikupljanjem velikih baza podataka primjera odgovora stvarnih ljudi na umjetne podražaje s praćenjem dugoročnih posljedica. Takvo praćenje vjerojatno će zahtijevati još nekoliko godina istraživanja prije nego što se dosljedno dođu do ciljanih napada.

Napad vida

Alexey Parfentiev, voditelj odjela za analitiku u SearchInformu, također se slaže s Yurijem Vilsiterom. Prema njegovim riječima, stručnjaci već predviđaju napade na neuronske mreže, iako sada takvih primjera praktički nema.

- Istraživači iz Gartnera vjeruju da će do 2022. 30% svih cyber napada biti usmjereno na oštećenje podataka na kojima se neuronska mreža trenira i krađu gotovih modela strojnog učenja. Tada, na primjer, bespilotna vozila mogu iznenada početi zamijeniti pješake za druge objekte. I nećemo govoriti o financijskom ili reputacijskom riziku, već o životu i zdravlju običnih ljudi, smatra stručnjak.

U sklopu istraživanja sada se provode napadi na sustave računalnog vida. Svrha takvih napada je natjerati neuronsku mrežu da otkrije nešto na slici čega nema. Ili, obrnuto, ne vidjeti što je planirano.

The Truman Show - 2019: Kako su neuronske mreže naučile lažirati sliku vijesti
The Truman Show - 2019: Kako su neuronske mreže naučile lažirati sliku vijesti

"Jedna od tema koje se aktivno razvijaju u području obuke neuronskih mreža su takozvani adversarski napadi (" adversarial napadi. "- Izvestia)", objasnio je Vladislav Tushkanov, web analitičar u Kaspersky Labu. - U većini slučajeva usmjereni su na sustave računalnog vida. Za izvođenje takvog napada u većini slučajeva morate imati potpuni pristup neuronskoj mreži (tzv. napadi bijele kutije) ili rezultatima njezina rada (napadi crne kutije). Ne postoje metode koje mogu prevariti bilo koji sustav računalnog vida u 100% slučajeva. Osim toga, već su stvoreni alati koji vam omogućuju testiranje neuronskih mreža na otpornost na neprijateljske napade i povećanje njihove otpornosti.

Tijekom takvog napada napadač pokušava nekako promijeniti prepoznatu sliku kako neuronska mreža ne bi radila. Često se na fotografiji pojavljuje šum, sličan onom koji se javlja pri fotografiranju u slabo osvijetljenoj prostoriji. Osoba obično ne primjećuje dobro takve smetnje, ali neuronska mreža počinje kvariti. Ali da bi izveo takav napad, napadaču je potreban pristup algoritmu.

Prema riječima Stanislava Ashmanova, generalnog direktora Neuroset Ashmanova, trenutno ne postoje metode za rješavanje ovog problema. Osim toga, ova tehnologija je dostupna svima: prosječni programer može je koristiti preuzimanjem potrebnog softvera otvorenog koda s usluge Github.

The Truman Show - 2019: Kako su neuronske mreže naučile lažirati sliku vijesti
The Truman Show - 2019: Kako su neuronske mreže naučile lažirati sliku vijesti

- Napad na neuronsku mrežu je tehnika i algoritmi za zavaravanje neuronske mreže, zbog kojih ona daje lažne rezultate, a zapravo je razbija kao bravu na vratima - smatra Ashmanov. - Na primjer, sada je prilično lako natjerati sustav za prepoznavanje lica da misli da niste vi, nego Arnold Schwarzenegger ispred njega - to se radi miješanjem aditiva neprimjetnih za ljudsko oko u podatke koji dolaze u neuronsku mrežu. Isti napadi mogući su za sustave za prepoznavanje govora i analizu.

Stručnjak je siguran da će biti samo gore - te su tehnologije otišle u mase, prevaranti ih već koriste, a od njih nema zaštite. Budući da ne postoji zaštita od automatiziranog stvaranja video i audio krivotvorina.

Duboki lažnjaci

Deepfake tehnologije temeljene na Deep Learning (tehnologije dubokog učenja neuronskih mreža. - Izvestia) već predstavljaju stvarnu prijetnju. Video ili audio lažnjaci nastaju uređivanjem ili prekrivanjem lica poznatih ljudi koji navodno izgovaraju potreban tekst i igraju potrebnu ulogu u radnji.

“Deepfake omogućuje zamjenu pokreta usana i ljudskog govora videom, što stvara osjećaj realizma onoga što se događa”, kaže Andrey Busargin, direktor odjela za inovativnu zaštitu robne marke i intelektualno vlasništvo u Group-IB. - Lažne poznate osobe “nude” korisnicima na društvenim mrežama da sudjeluju u izvlačenju vrijednih nagrada (pametni telefoni, automobili, svote novca) itd. Veze s takvih video publikacija često vode do lažnih i phishing stranica, gdje se od korisnika traži da unesu osobne podatke, uključujući podatke o bankovnoj kartici. Takve sheme predstavljaju prijetnju i običnim korisnicima i javnim osobama koje se spominju u reklamama. Ova vrsta prijevara počinje povezivati slike slavnih s prijevarama ili reklamiranom robom i tu nailazimo na štetu osobnog brenda, kaže.

The Truman Show - 2019: Kako su neuronske mreže naučile lažirati sliku vijesti
The Truman Show - 2019: Kako su neuronske mreže naučile lažirati sliku vijesti

Druga prijetnja povezana je s korištenjem "lažnih glasova" za telefonske prijevare. Na primjer, u Njemačkoj su cyber kriminalci upotrijebili glasovnu prevaru kako bi natjerali šefa podružnice iz Ujedinjenog Kraljevstva da hitno prebaci 220.000 eura u telefonskom razgovoru, predstavljajući se kao menadžer tvrtke.na račun mađarskog dobavljača. Šef britanske firme posumnjao je u trik kada je njegov "šef" zatražio drugu uplatnicu, ali je poziv stigao s austrijskog broja. Do tada je prva tranša već bila prebačena na račun u Mađarskoj, odakle je novac povučen u Meksiko.

Ispostavilo se da vam trenutne tehnologije omogućuju stvaranje pojedinačne slike vijesti ispunjene lažnim vijestima. Štoviše, uskoro će biti moguće razlikovati lažne od pravog videa i zvuka samo pomoću hardvera. Prema mišljenju stručnjaka, mjere koje zabranjuju razvoj neuronskih mreža vjerojatno neće biti učinkovite. Stoga ćemo uskoro živjeti u svijetu u kojem će biti potrebno sve stalno provjeravati.

"Moramo se pripremiti za to i to se mora prihvatiti", naglasio je Yuri Vilsiter. - Čovječanstvo nije prvi put da prelazi iz jedne stvarnosti u drugu. Naš svijet, način života i vrijednosti radikalno se razlikuju od svijeta u kojem su živjeli naši preci prije 60.000 godina, prije 5.000 godina, prije 2.000 godina, pa čak i prije 200-100 godina. U bliskoj budućnosti, osoba će u velikoj mjeri biti lišena privatnosti i stoga prisiljena ništa ne skrivati i djelovati pošteno. Pritom se ništa u okolnoj stvarnosti i u vlastitoj osobnosti ne može uzeti na vjeru, sve će se morati propitivati i neprestano provjeravati. Ali hoće li ova buduća stvarnost biti strašna? Ne. Jednostavno će biti potpuno drugačije.

Preporučeni: