Utviklingen av kunstig intelligens har de siste årene åpnet for nye manipuleringsteknikker for lydopptak og levende bilder.

Resultatet av det er at det i 2019 ikke bare er stillbilder som kan «fotoshoppes» – tvert imot må enhver video og ethvert lydopptak nå vurderes med samme kildekritiske blikk som en digital tekst.

«Deepfakes» er blitt navnet på den kanskje mest forbløffende og potensielt skadelige varianten av videomanipulering: Videoer av mennesker der ansiktstrekkene er manipulert til å se ut som andre personer.

Begrepet er av nyere dato, men de første deepfake-videoene ble laget allerede på nittitallet og film- og tv-bransjen har rutinemessig brukt digitale teknikker for å retusjere utseendet til skuespillere hvertfall siden 2004. Men teknologien gjorde et kvantesprang i 2016, da det kom programmer som lot brukeren manipulere ansiktsbevegelsene i et videoklipp i sanntid:

I 2016 kom også Star Wars-filmen «Rogue One», der yngre utgaver av den da 60 år gamle skuespilleren Carrie Fisher og den forlengst avdøde Peter Cushing ble manipulert inn over ansiktene til skuespillerne som faktisk befant seg på filmsettet.

Fikk Obama til å «kommentere» hacking

Mer skremmende var kanskje klippet tv-kanalen USA Network publiserte i 2016 som en teaser for tv-serien «Mr. Robot». Da var det president Barack Obama som ble manipulert til å gi en «pressekonferanse» om et fiktivt cyberangrep:

Samme året demonstrerte programvarehuset Adobe sin nyvinning VoCo, et program du kan fore med lydopptak av en person for så å generere et hvilket som helst utsagn sagt med vedkommendes stemme.

Programmet er fortsatt ikke allment tilgjengelig, men representerer en mulighet for å lage manipulerte videoer av virkelige personer uten bruk av dyktige stemme-etterliknere (Adobe sier de bygger inn en form for «vannmerking» slik at lydfiler fra programmet alltid skal kunne gjennomskues som manipulasjoner).

Komiker ble umerkelig til… Tom Cruise

I 2018 kom en annen fake Obama-video som gikkk viralt. Da var det komikeren Jordan Peele som etterliknet ekspresidenten i en video for Buzzfeed ment å advare mot utviklingen av deepfake-teknologi.

En annen underholdende variant er den der Donald Trumps ansikt er manipulert inn på kroppen til skuespiller Bob Odenkirk i en scene fra tv-serien «Better Call Saul»:

Noe lenger inn i «uncanny valley»-land er videoene fra Youtube-kanalen Ctrl Shift Face, som særlig har fått oppmerksomhet for sine subtile, nesten umerkelige endringer av ansiktet til komiker Bill Hader når vedkommende imiterer skuespillerkolleger.

Den britiske kunstneren Bill Posters forbløffet også mange da han i forbindelse med en utstilling tidligere i år lanserte svært troverdige deepfakes av blant andre Kim Kardashian og Mark Zuckerberg.

Sistnevnte video ble lgt ut på Facebook i et forsøk på å teste plattformens respons på deepfakes (videoen ble ikke tatt ned, men en representant for selskapet klargjorde at slike videoer vil kunne bli merket dersom de blir testet av noen av faktasjekkerne Facebook samarbeider med).

Samme opphavsmann publiserte nylig også deepfakes av henholdvis Jeremy Corbyn og Boris Johnson, der de to politiske rivalene gir hverandre helhjertet støtte som statsminister.

«Sløvet» Pelosi ved å skru ned tempo

Alle disse videoene har til felles at de er laget for å underholde og/eller varsle om farene ved den nye teknologien. Reelle forsøk på villede offentligheten ved hjelp av deepfakes kan det se ut som om vi foreløpig er forskånet for.

Kanskje er den egentlige faren ved deepfakes at de, i likhet med falske nyheter, blir hendige å skylde på for politikere som får blemmer og forsnakkelser eksponert på video.

På en annen side er det heller ikke nødvendig med avansert teknologi for å få noen til å framstå uheldig på video. Det fikk Nanci Pelosi erfare da et klipp av henne som ble spredd på sosiale medier simpelthen hadde fått avspillingshastigheten redusert, med det resultat at den amerikanske politikeren fremsto sløvere og mer grøtete enn hun gjør i virkeligheten.

Brukes til seksuell trakassering

Selve begrepet «deepfake» dukket opp på et Reddit-forum på tampen av 2017 sammen med erkjennelsen av at videomanipulerings-teknologien ikke bare var blitt tilgjengelig for hvem som helst, gjennom kraftige grafikk-kort og programvare basert på åpen kildekode, men at den representerte nye muligheter for seksuell trakassering.

Da hadde Reddit-brukeren «Deepfakes» brukt software tilgjengeliggjort for forskning- og undervisningsformål av Google til å manipulere skuespilleren Gal Gadots ansikt inn i et pornografisk klipp.

Skuespilleren Bella Thorne er blant dem som har stått fram og fortalt om den emosjonelle påkjenningen ved å bli utsatt for slike pornografiske deepfakes.

«Deepfakes» beskrev seg selv overfor Vice som en helt vanlig programmerer med interesse for maskinlæring – avarten av kunstig intelligens som lar maskiner selv utvikle ferdigheter basert på data – og forklarte at han hadde brukt nettets utallige bilder av «Wonder Woman»-skuespilleren til å trene opp maskinen til å etterlikne hennes trekk.

Bare to måneder senere hadde 15 000 brukere meldt seg inn i en subreddit tilegnet deling av pornografiske klipp med kjendiskvinners ansikter, og de første appene var lansert for å tilgjengeliggjøre teknikken for de mindre datakyndige.

Rammer kvinnelige journalister og aktivister

Slike apper gir dårlige nok etterlikninger at de vekker de flestes mistanke om ugler i mosen, men kvaliteten blir stadig bedre.

Marc Warner i Faculty, et britisk selskap som jobber med å utvikle teknikker for å avsløre deepfakes, spår overfor Financial Times at det i 2022 vil være umulig for en vanlig person å se forskjell på en falsk og en autentisk video.

Det er naturligvis heller ingen hindring for å bruke den samme teknikken mot hvilket som helst menneske det måtte finnes et visst antall ansiktsbilder av på nettet. 

95 prosent av alle deepfakes på internett er i dag pornografiske manipulasjoner som rammer folk som ikke har gitt noe samtykke, hevder Sam Gregory i menneskerettighetsstiftelsen Witness overfor Wired. Stiftelsen jobber med å overvåke fenomenet og spår at problemet bare vil øke.

– Vi har sett at deepfakes i økende grad brukes også i andre sammenhenger, og for eksempel rettes mot kvinnelige journalister og aktivister, sier han til Wired.