Satura rādītājs:

Dziļi viltojumi: Neuroset tika mācīts radīt skaņas un video viltojumus
Dziļi viltojumi: Neuroset tika mācīts radīt skaņas un video viltojumus

Video: Dziļi viltojumi: Neuroset tika mācīts radīt skaņas un video viltojumus

Video: Dziļi viltojumi: Neuroset tika mācīts radīt skaņas un video viltojumus
Video: Singapore’s Bold Plan to Build the Farms of the Future 2024, Maijs
Anonim

Lai jebkuram no mums izveidotu “individuālu” ziņu bildi un falsificētu tajā atlasītās mediju ziņas, šodien pietiek ar viena programmētāja pūlēm. Par to Izvestija pastāstīja mākslīgā intelekta un kiberdrošības speciālisti.

Pavisam nesen viņi lēsa, ka tas prasīja vairāku komandu darbu. Šāds paātrinājums ir kļuvis iespējams, attīstot tehnoloģijas uzbrukumiem neironu tīkliem un audio un video viltojumu ģenerēšanai, izmantojot programmas “dziļu viltojumu” radīšanai. Laikraksts Izvestija nesen tika pakļauts līdzīgam uzbrukumam, kad trīs Lībijas ziņu portāli uzreiz publicēja ziņu, kas it kā parādījās vienā no numuriem. Pēc ekspertu domām, 3-5 gadu laikā varam sagaidīt robotu manipulatoru invāziju, kas automātiski spēs radīt daudz viltojumu.

Drosmīgā jaunā pasaule

Arvien vairāk ir projektu, kas pielāgo informācijas attēlu konkrētu lietotāju uztverei. Viens no viņu darba piemēriem bija nesenā trīs Lībijas portālu akcija, kas publicēja ziņu, kas it kā publicēta Izvestija 20. novembra numurā. Viltojuma veidotāji pārveidoja laikraksta pirmo lapu, ievietojot tajā vēstījumu par feldmaršala Halifas Haftara un Nacionālās saskaņas valdības (PNS) premjerministra Fajesa Sarradža sarunām. Viltotam Izvestija burtnīcā bija pievienota abu līderu fotogrāfija, kas uzņemta 2017. gada maijā. Etiķete ar izdevuma logotipu tika izgriezta no faktiski izdotā 20. novembra numura, bet visi pārējie teksti lapā no 23. oktobra numura.

No speciālistu viedokļa pārskatāmā nākotnē šādas viltojumi var tikt veikti automātiski.

Trūmena šovs - 2019: kā neironu tīkli mācīja viltot ziņu attēlu
Trūmena šovs - 2019: kā neironu tīkli mācīja viltot ziņu attēlu

"Mākslīgā intelekta tehnoloģijas tagad ir pilnībā atvērtas, un datu saņemšanas un apstrādes ierīces tiek miniaturizētas un kļūst lētākas," sacīja Jurijs Vilsiters, fizikas un matemātikas zinātņu doktors, Krievijas Zinātņu akadēmijas profesors, FSUE "GosNIIAS" nodaļas vadītājs. stāstīja Izvestija. – Tāpēc ļoti iespējams, ka tuvākajā laikā mūs noklausīt un izspiegot, kā arī manipulēt ar realitāti varēs pat nevis valsts un lielās korporācijas, bet vienkārši privātpersonas. Nākamajos gados, analizējot lietotāja preferences, būs iespējams viņu ietekmēt ar ziņu plūsmām un ļoti gudriem viltojumiem.

Pēc Jurija Vilsitera teiktā, tehnoloģijas, kuras var izmantot šādai intervencei garīgajā vidē, jau pastāv. Teorētiski robotu robotu iebrukums ir sagaidāms pēc dažiem gadiem, viņš teica. Ierobežojošais punkts šeit var būt nepieciešamība apkopot lielas datubāzes ar piemēriem par reālu cilvēku reakciju uz mākslīgiem stimuliem, izsekojot ilgtermiņa sekas. Šāda izsekošana, iespējams, prasīs vēl vairākus gadus ilgu pētījumu, pirms tiks konsekventi iegūti mērķtiecīgi uzbrukumi.

Redzes uzbrukums

Arī SearchInform analītikas nodaļas vadītājs Aleksejs Parfentjevs piekrīt Jurijam Vilsiteram. Pēc viņa teiktā, eksperti jau prognozē uzbrukumus neironu tīkliem, lai gan šobrīd tādu piemēru praktiski nav.

- Gartner pētnieki uzskata, ka līdz 2022. gadam 30% no visiem kiberuzbrukumiem būs vērsti uz to datu sabojāšanu, uz kuriem tiek apmācīts neironu tīkls, un nozagt gatavus mašīnmācīšanās modeļus. Tad, piemēram, bezpilota transportlīdzekļi pēkšņi var sākt sajaukt gājējus ar citiem objektiem. Un mēs nerunāsim par finansiālo vai reputācijas risku, bet gan par parastu cilvēku dzīvību un veselību, uzskata eksperts.

Uzbrukumi datorredzes sistēmām pašlaik tiek veikti kā daļa no pētījuma. Šādu uzbrukumu mērķis ir likt neironu tīklam atklāt kaut ko attēlā, kas tur nav. Vai, gluži otrādi, neredzēt, kas bija plānots.

Trūmena šovs - 2019: kā neironu tīkli mācīja viltot ziņu attēlu
Trūmena šovs - 2019: kā neironu tīkli mācīja viltot ziņu attēlu

"Viena no aktīvi attīstītajām tēmām neironu tīklu apmācības jomā ir tā sauktie pretrunīgie uzbrukumi (" pretrunīgie uzbrukumi. "- Izvestija)," skaidroja Kaspersky Lab tīmekļa analītiķis Vladislavs Tuškanovs. - Vairumā gadījumu tie ir vērsti uz datorredzes sistēmām. Lai veiktu šādu uzbrukumu, vairumā gadījumu jums ir nepieciešama pilnīga piekļuve neironu tīklam (tā sauktie baltās kastes uzbrukumi) vai tā darba rezultātiem (melnās kastes uzbrukumi). Nav metožu, kas 100% gadījumu varētu maldināt jebkuru datorredzes sistēmu. Turklāt jau ir izveidoti rīki, kas ļauj pārbaudīt neironu tīklu izturību pret pretinieku uzbrukumiem un palielināt to pretestību.

Šāda uzbrukuma laikā uzbrucējs mēģina kaut kā mainīt atpazīto attēlu, lai neironu tīkls nedarbotos. Bieži vien uz fotoattēla tiek uzklāts troksnis, kas līdzīgs tam, kas rodas, fotografējot slikti apgaismotā telpā. Cilvēks parasti šādus traucējumus labi nepamana, bet neironu tīkls sāk darboties nepareizi. Bet, lai veiktu šādu uzbrukumu, uzbrucējam ir nepieciešama piekļuve algoritmam.

Pēc Neuroset Ashmanov ģenerāldirektora Staņislava Ašmanova teiktā, pašlaik nav metožu šīs problēmas risināšanai. Turklāt šī tehnoloģija ir pieejama ikvienam: vidusmēra programmētājs to var izmantot, lejupielādējot nepieciešamo atvērtā pirmkoda programmatūru no Github servisa.

Trūmena šovs - 2019: kā neironu tīkli mācīja viltot ziņu attēlu
Trūmena šovs - 2019: kā neironu tīkli mācīja viltot ziņu attēlu

- Uzbrukums neironu tīklam ir paņēmiens un algoritmi neironu tīkla maldināšanai, kas liek tam radīt nepatiesus rezultātus un patiesībā to salauzt kā durvju slēdzeni, - uzskata Ašmanovs. – Piemēram, šobrīd ir diezgan viegli likt sejas atpazīšanas sistēmai domāt, ka priekšā neesi tu, bet Arnolds Švarcenegers – tas tiek darīts, datos, kas nonāk neironu tīklā, sajaucot cilvēka acij nemanāmas piedevas. Tie paši uzbrukumi ir iespējami runas atpazīšanas un analīzes sistēmām.

Eksperts ir pārliecināts, ka kļūs tikai sliktāk – šīs tehnoloģijas ir aizgājušas masveidā, krāpnieki tās jau izmanto, un pret tām nav aizsardzības. Tā kā nav aizsardzības pret video un audio viltojumu automatizētu izveidi.

Dziļi viltojumi

Deepfake tehnoloģijas, kuru pamatā ir Deep Learning (neironu tīklu dziļās mācīšanās tehnoloģijas. - Izvestija), jau rada reālus draudus. Video vai audio viltojumi tiek radīti, montējot vai pārklājot slavenu cilvēku sejas, kuri it kā izrunā vajadzīgo tekstu un spēlē vajadzīgo lomu sižetā.

"Deepfake ļauj aizstāt lūpu kustības un cilvēka runu ar video, kas rada notiekošā reālisma sajūtu," saka Andrejs Busargins, Group-IB novatoriskā zīmola aizsardzības un intelektuālā īpašuma departamenta direktors. - Viltus slavenības “piedāvā” lietotājiem sociālajos tīklos piedalīties vērtīgu balvu (viedtālruņi, automašīnas, naudas summas) izlozē u.c. Saites no šādām video publikācijām bieži noved pie krāpnieciskām un pikšķerēšanas vietnēm, kurās lietotājiem tiek lūgts ievadīt personisko informāciju, tostarp bankas kartes datus. Šādas shēmas rada draudus gan parastajiem lietotājiem, gan sabiedrībā zināmām personām, kuras tiek pieminētas reklāmās. Šāda veida krāpniecība sāk saistīt slavenību attēlus ar krāpniecību vai reklamētām precēm, un tieši šeit mēs saskaramies ar personīgā zīmola bojājumiem, viņš saka.

Trūmena šovs - 2019: kā neironu tīkli mācīja viltot ziņu attēlu
Trūmena šovs - 2019: kā neironu tīkli mācīja viltot ziņu attēlu

Vēl viens drauds saistīts ar "viltus balsu" izmantošanu telefonkrāpšanai. Piemēram, Vācijā kibernoziedznieki izmantoja balss viltojumu, lai liktu meitasuzņēmuma vadītājam no Apvienotās Karalistes telefonsarunā steidzami pārskaitīt 220 000 eiro, uzdodoties par uzņēmuma vadītāju. Ungārijas piegādātāja kontā. Britu firmas vadītājam radās aizdomas par viltību, kad viņa "priekšnieks" lūdza otru naudas pārvedumu, taču zvans nāca no Austrijas numura. Līdz tam laikam pirmā daļa jau bija pārskaitīta uz kontu Ungārijā, no kura nauda tika izņemta uz Meksiku.

Izrādās, ka pašreizējās tehnoloģijas ļauj izveidot individuālu ziņu attēlu, kas piepildīts ar viltus ziņām. Turklāt drīzumā viltojumus no īsta video un audio varēs atšķirt tikai pēc aparatūras. Pēc ekspertu domām, pasākumi, kas aizliedz neironu tīklu attīstību, visticamāk, nebūs efektīvi. Tāpēc drīz mēs dzīvosim pasaulē, kurā būs nepieciešams pastāvīgi visu pārbaudīt vēlreiz.

"Mums tam ir jāsagatavojas, un tas ir jāpieņem," uzsvēra Jurijs Vilsiters. - Cilvēce nav pirmā reize, kad pāriet no vienas realitātes uz otru. Mūsu pasaule, dzīvesveids un vērtības kardināli atšķiras no pasaules, kurā dzīvoja mūsu senči pirms 60 000 gadu, pirms 5000 gadiem, pirms 2000 gadiem un pat pirms 200-100 gadiem. Tuvākajā laikā cilvēkam lielā mērā tiks liegta privātā dzīve un tāpēc viņš būs spiests neko slēpt un rīkoties godīgi. Tajā pašā laikā nekas apkārtējā realitātē un savā personībā nav ņemams uz ticības, viss būs jāapšauba un pastāvīgi jāpārbauda vēlreiz. Bet vai šī nākotnes realitāte būs briesmīga? Nē. Tas vienkārši būs pavisam savādāk.

Ieteicams: