Facebooks sensurpraksis er en av dagens store nyhetssaker – også internasjonalt – etter Aftenpostens forsideoppgjør med den gjentatte fjerningen av Nick Uts ikoniske krigsbilde fra Vietnam-krigen (som er gjengitt over med det nakne barnets genitalia pikselert – en måte å omgå problemet på  – tror vi, da).

OPPDATERING: AFP melder fredag kveld at Facebook har besluttet å akseptere det aktuelle bildet fordi «dets status som et ikonisk bilde med historisk betydning oppveier verdien av å tillate deling verdien av å verne samfunnet ved å fjerne det». Se f. eks. TV 2.

Nettsamfunnet aksepterer ikke bilder av nakne mennesker og skiller øyensynlig ikke mellom reportasjebilder og pornografi.

«Det er vanskelig å sette et skille mellom å tillate bilde av et nakent barn i ett tilfelle og ikke i andre», sier Facebook via sitt nordiske PR-byrå til Aftenposten i dag.

«Våre løsninger vil ikke alltid være perfekte, men vi forsøker videre å forbedre våre retningslinjer og måten vi håndhever dem», sier Facebook.

Kan automatiseres

Hvordan kontrollen av millioner av bilder som lastes opp foregår i praksis, er nettsamfunnet lite åpne om. Filter Nyheter vet at det for noen år siden var manuell kontroll av alle bilder som ble innrapportert som upassende av en viss andel av dem som hadde sett dem.

I dag er teknologien kommet så langt at den muliggjør stadig mer automatisering av slike prosesser.

– De bruker etter alt å dømme en kombinasjon av automatisk gjenkjenning av bilder med nakenhet og manuell sjekk av bilder som rapporteres som støtende av et visst antall brukere, sier Bo Myrås, som var medgrunnlegger av det sosiale mediet Biip(Full åpenhet: Myrås er i likhet med en av eierne av Filter Media Norge medeier i selskapet Venture Factory).

– Hvis Facebooks datamaskiner tar feil om det samme bildet mange ganger, er det en enkel sak å lære maskinen at akkurat dette bildet ikke skal sensureres. Men på overordnet nivå kan det være vanskelig å lære maskinen forskjellen på ett nakent barn versus et annet, sier han.

Kan analysere konteksten

Det bør være mulig – selv for Facebook, som mottar millioner av bilder daglig og umulig kan vurdere dem alle manuelt – å lage et system som slipper bilder av historisk eller journalistisk verdi gjennom sensuren. Det mener Fritz Albregtsen, professor ved institutt for informatikk ved Universitetet i Oslo og ekspert på blant annet bildeanalyse.

– Det er ikke vanskelig å lage automatiske algoritmer som detekterer bar hud. Ved å plukke ut bildene der en en viss prosentandel av kroppen er bar hud, har man nærmest laget et pornografifilter, sier Albregtsen.

– De bildene som da blir detektert bør det være mulig å lage en fornuftig, manuell vurdering på – men også dette kan langt på vei automatiseres. For eksempel ved å se på hvilken kontekst bildet står i; om det for eksempel er en del av en politisk debatt, sier han.

At det aktuelle Vietnam-bildet fra 1972 er i svart/hvitt gjør det ikke vanskeligere for maskinene å gjenkjenne ndel av en kropp som består av bar hud – algoritmen kan for eksempel finne personens panne og så regne seg fram til hvor stor del av kroppen som består av den samme tonen.

Maskinlæring

Det er også mulig å bruke maskinlæring for å gjøre algoritmene stadig bedre på å skille pornografiske bilder fra andre bilder av nakenhet, mener Bjørn Magnus Mathisen, stipendiat ved institutt for datateknikk og informasjonsvitenskap ved NTNU, med kunstig intelligens som forskningsområde.

– Da forer man først maskinen med store mengder pornografiske bilder, slik at den «lærer» hva som kjennetegner slike bilder, sier han.

– Teknologisk sett er maskiner nå like flinke som mennesker til å gjenkjenne objekter i bilder, så jeg ser ikke bort fra at det vil være mulig å lage systemer som kan skille uønskede nakenbilder fra bilder med journalistisk verdi. En viss gråsone vil nok likevel eksistere, og derfor opererer sannsynligvis Facebook med en stor feilmargin, sier Mathisen.

Han påpeker at det også er mulig å operere med en såkalt whitelist med kjente, historiske bilder som automatisk unnslipper naken-sensuren.

– Det er ikke annerledes enn at man definerer visse epostadresser som slipper gjennom spamfilteret, sier han.