Innholdsfortegnelse:

Dype forfalskninger: Neuroset ble lært opp til å generere lyd- og videoforfalskninger
Dype forfalskninger: Neuroset ble lært opp til å generere lyd- og videoforfalskninger

Video: Dype forfalskninger: Neuroset ble lært opp til å generere lyd- og videoforfalskninger

Video: Dype forfalskninger: Neuroset ble lært opp til å generere lyd- og videoforfalskninger
Video: Homemade Wind Generator for make electricity / free energy 2024, Kan
Anonim

For å lage et "individuelt" nyhetsbilde for noen av oss og forfalske medierapportene som er valgt i det, er innsatsen til en programmerer nok i dag. Spesialister innen kunstig intelligens og cybersikkerhet fortalte Izvestia om dette.

Nylig estimerte de at dette krevde arbeidet fra flere team. Slik akselerasjon har blitt mulig med utviklingen av teknologier for angrep på nevrale nettverk og generering av lyd- og videoforfalskninger ved bruk av programmer for å lage "dyp forfalskninger". Avisen Izvestia ble nylig utsatt for et lignende angrep, da tre libyske nyhetsportaler på en gang publiserte en melding som skal ha dukket opp i en av utgavene. I følge eksperter kan vi innen 3-5 år forvente en invasjon av robotmanipulatorer, som automatisk vil kunne lage mange forfalskninger.

Vidunderlige nye verden

Det er flere og flere prosjekter som tilpasser informasjonsbildet til oppfatningen til spesifikke brukere. Et eksempel på deres arbeid var den nylige handlingen til tre libyske portaler, som publiserte en nyhet som angivelig ble publisert i utgaven av Izvestia 20. november. Skaperne av det falske endret forsiden av avisen, og la på den en melding om forhandlingene mellom feltmarskalk Khalifa Haftar og statsministeren for regjeringen for nasjonal enighet (PNS) Fayez Sarraj. Den falske, i Izvestia-skrifttype, ble ledsaget av et bilde av de to lederne tatt i mai 2017. Etiketten med publikasjonens logo er klippet fra selve publiserte nummeret 20. november, og alle andre tekster på siden fra 23. oktober-nummeret.

Fra spesialisters synspunkt, i overskuelig fremtid, kan slike forfalskninger gjøres automatisk.

The Truman Show - 2019: How Neural Networks Teught to Fake the News Picture
The Truman Show - 2019: How Neural Networks Teught to Fake the News Picture

"Teknologier for kunstig intelligens er nå helt åpne, og enheter for å motta og behandle data miniatyriseres og blir billigere," Yuri Vilsiter, doktor i fysiske og matematiske vitenskaper, professor ved det russiske vitenskapsakademiet, leder av FSUE "GosNIIAS"-avdelingen, fortalte Izvestia. – Derfor er det høyst sannsynlig at i nær fremtid vil ikke engang staten og store selskaper, men rett og slett privatpersoner kunne avlytte og spionere på oss, samt manipulere virkeligheten. I årene som kommer vil det være mulig, ved å analysere brukerpreferanser, å påvirke ham gjennom nyhetsfeeds og svært smarte forfalskninger.

Ifølge Yuri Vilsiter eksisterer allerede teknologier som kan brukes til en slik intervensjon i det mentale miljøet. I teorien kan invasjonen av robotroboter forventes om noen år, sa han. Et begrensende punkt her kan være behovet for å samle inn store databaser med eksempler på virkelige menneskers respons på kunstige stimuli med sporing av langsiktige konsekvenser. Slik sporing vil sannsynligvis kreve flere år med forskning før målrettede angrep oppnås konsekvent.

Synsangrep

Alexey Parfentiev, leder for analyseavdelingen i SearchInform, er også enig med Yuri Vilsiter. Ifølge ham spår eksperter allerede angrep på nevrale nettverk, selv om det nå praktisk talt ikke er noen slike eksempler.

– Forskere fra Gartner tror at innen 2022 vil 30 % av alle cyberangrep være rettet mot å ødelegge dataene som det nevrale nettverket er trent på og stjele ferdige maskinlæringsmodeller. Da kan for eksempel ubemannede kjøretøy plutselig begynne å ta feil av fotgjengere for andre objekter. Og vi skal ikke snakke om økonomisk eller omdømmerisiko, men om vanlige menneskers liv og helse, mener eksperten.

Angrep på datasynssystemer utføres nå som en del av forskningen. Hensikten med slike angrep er å få det nevrale nettverket til å oppdage noe i bildet som ikke er der. Eller omvendt å ikke se hva som var planlagt.

The Truman Show - 2019: How Neural Networks Teught to Fake the News Picture
The Truman Show - 2019: How Neural Networks Teught to Fake the News Picture

"Et av de aktivt utviklende temaene innen trening av nevrale nettverk er de såkalte motstridende angrepene ("motstridende angrep. "- Izvestia),» forklarte Vladislav Tushkanov, en webanalytiker ved Kaspersky Lab. – I de fleste tilfeller er de rettet mot datasynssystemer. For å utføre et slikt angrep, må du i de fleste tilfeller ha full tilgang til det nevrale nettverket (de såkalte white-box-angrepene) eller resultatene av arbeidet (black-box-angrep). Det finnes ingen metoder som kan lure noe datasynssystem i 100 % av tilfellene. I tillegg er det allerede laget verktøy som lar deg teste nevrale nettverk for motstand mot kontradiktoriske angrep og øke deres motstand.

I løpet av et slikt angrep prøver angriperen på en eller annen måte å endre det gjenkjente bildet slik at det nevrale nettverket ikke fungerer. Ofte legges støy over bildet, lik det som oppstår når man fotograferer i et dårlig opplyst rom. En person merker vanligvis ikke slike forstyrrelser godt, men det nevrale nettverket begynner å fungere feil. Men for å kunne utføre et slikt angrep trenger angriperen tilgang til algoritmen.

I følge Stanislav Ashmanov, generaldirektør i Neuroset Ashmanov, er det foreløpig ingen metoder for å håndtere dette problemet. I tillegg er denne teknologien tilgjengelig for alle: en gjennomsnittlig programmerer kan bruke den ved å laste ned nødvendig åpen kildekode-programvare fra Github-tjenesten.

The Truman Show - 2019: How Neural Networks Teught to Fake the News Picture
The Truman Show - 2019: How Neural Networks Teught to Fake the News Picture

– Et angrep på et nevralt nettverk er en teknikk og algoritmer for å lure et nevralt nettverk, som gjør at det gir falske resultater, og faktisk bryter det som en dørlås, – mener Ashmanov. – Nå er det for eksempel ganske enkelt å få ansiktsgjenkjenningssystemet til å tro at det ikke er deg, men Arnold Schwarzenegger foran det – dette gjøres ved å blande tilsetningsstoffer som er umerkelige for det menneskelige øyet inn i dataene som kommer til det nevrale nettverket. De samme angrepene er mulige for talegjenkjennings- og analysesystemer.

Eksperten er sikker på at det bare vil bli verre - disse teknologiene har gått til massene, svindlere bruker dem allerede, og det er ingen beskyttelse mot dem. Siden det ikke er noen beskyttelse mot automatisk oppretting av video- og lydforfalskninger.

Dype forfalskninger

Deepfake-teknologier basert på Deep Learning (teknologier for dyp læring av nevrale nettverk. - Izvestia) utgjør allerede en reell trussel. Video- eller lydforfalskninger lages ved å redigere eller legge over ansiktene til kjente personer som angivelig uttaler den nødvendige teksten og spiller den nødvendige rollen i handlingen.

"Deepfake lar deg erstatte leppebevegelser og menneskelig tale med video, noe som skaper en følelse av realisme av hva som skjer," sier Andrey Busargin, direktør for avdelingen for innovativ merkevarebeskyttelse og intellektuell eiendom i Group-IB. - Falske kjendiser "tilbyr" brukere på sosiale nettverk å delta i trekningen av verdifulle premier (smarttelefoner, biler, pengesummer) etc. Lenker fra slike videopublikasjoner fører ofte til svindel- og phishing-sider, der brukere blir bedt om å oppgi personlig informasjon, inkludert bankkortopplysninger. Slike ordninger utgjør en trussel for både vanlige brukere og offentlige personer som omtales i reklamefilmer. Denne typen svindel begynner å assosiere kjendisbilder med svindel eller annonserte varer, og det er her vi støter på personlig merkevareskade, sier han.

The Truman Show - 2019: How Neural Networks Teught to Fake the News Picture
The Truman Show - 2019: How Neural Networks Teught to Fake the News Picture

En annen trussel er knyttet til bruk av «falske stemmer» for telefonsvindel. For eksempel, i Tyskland, brukte nettkriminelle stemmedeepfake for å få lederen til et datterselskap fra Storbritannia til å raskt overføre € 220 000 i en telefonsamtale, og utgir seg for å være en bedriftsleder.inn på kontoen til en ungarsk leverandør. Lederen for det britiske firmaet mistenkte et triks da "sjefen" hans ba om en ny postanvisning, men anropet kom fra et østerriksk nummer. På dette tidspunktet var den første transjen allerede overført til en konto i Ungarn, hvorfra pengene ble trukket til Mexico.

Det viser seg at dagens teknologier lar deg lage et individuelt nyhetsbilde fylt med falske nyheter. Dessuten vil det snart være mulig å skille falske fra ekte video og lyd bare etter maskinvare. Ifølge eksperter er det usannsynlig at tiltak som forbyr utvikling av nevrale nettverk vil være effektive. Derfor vil vi snart leve i en verden der det vil være nødvendig å stadig sjekke alt på nytt.

"Vi må forberede oss på dette, og dette må aksepteres," understreket Yuri Vilsiter. – Menneskeheten er ikke første gang som går fra en virkelighet til en annen. Vår verden, livsstil og verdier er radikalt forskjellig fra verden der våre forfedre levde for 60 000 år siden, 5000 år siden, 2000 år siden og til og med for 200-100 år siden. I nær fremtid vil en person i stor grad bli fratatt privatlivet og derfor tvunget til å skjule ingenting og opptre ærlig. Samtidig kan ingenting i den omkringliggende virkeligheten og i ens egen personlighet tas på tro, alt vil måtte stilles spørsmålstegn ved og stadig kontrolleres på nytt. Men vil denne fremtidige virkeligheten være forferdelig? Nei. Det blir rett og slett helt annerledes.

Anbefalt: