Tre år med «Deepfakes»: Se skremmende eksempler på video-manipulering av ansikter

Utviklingen av kunstig intelligens har de siste årene åpnet for nye manipuleringsteknikker for lydopptak og levende bilder. Resultatet av det er at det i 2019 ikke bare er stillbilder som kan «fotoshoppes» – tvert imot må enhver video og ethvert lydopptak nå vurderes med samme kildekritiske blikk som en digital tekst. «Deepfakes» er blitt navnet på den kanskje mest forbløffende og potensielt skadelige varianten av videomanipulering: Videoer av mennesker der ansiktstrekkene er manipulert til å se ut som andre personer. Begrepet er av nyere dato, men de første deepfake-videoene ble laget allerede på nittitallet og film- og tv-bransjen har rutinemessig […]

Fortsette å lese (gratis)

Vi vet det er kjedelig å registrere seg, og vi skulle ønske vi slapp å be deg om å logge deg på! Men som en liten avis med kvalitetsjournalistikk er vi helt avhengig av direkte kontakt med lesere. Vit dette: Vi kommer aldri til å selge kontaktinformasjonen din til andre, og vil bare bruke den til å sende deg nyhetsbrev og informasjon om vår journalistikk, og muligens rette en haug med annonser mot deg i sosiale medier. (Les vår personvernerklæring)

Harald S. Klungtveit
Redaktør

Ved å bruke 1-trinns registrering eller at du oppretter en konto ovenfor, samtykker du til Filter Medias personvernerklæring.