fredag, november 30, 2018

Farliga förfalskningar

Kultursidan Västerbottens-Kuriren 181130

Att digitala bilder med olika datorprogram kan manipuleras är sedan gammalt. Allt från retuschering av människor och objekt till att byta ut människor och objekt mellan olika miljöer. Men att retuschera en fotomodells ansikte eller att placera en bil i en viss miljö i marknadsföringssyfte får inte nödvändigtvis så stora konsekvenser.
        Andra typer av ytliga förfalskningar kan emellertid få långtgående konsekvenser. I dag meddelar sig politiker sig allt mer via egna digitala kanaler, i stället för traditionella mediekanaler. Tänk bara på Donald Trump och hans envetna twittrande.
        Men inte enbart Trump. Allt fler svenska politiker meddelar sig via sociala medier, inte enbart i form av allmänna inlägg i debatten, utan även betydelsefulla beslut. Detta utgör en måltavla för de som vill skapa och sprida falska nyheter om politiker.

        När Göran Hägglund 2015 skulle avisera att han lämnade posten som partiledare för kristdemokraterna, meddelade han det på Twitter innan han meddelade det på en presskonferens.
        När riksdagen hade röstat om Ulf Kristersson som ny statsminister den 13 november, skrev han ett inlägg på Facebook och beklagade att två allianspartier hade röstat emot. Nästan samtidigt skrev Annie Lööf ett inlägg på Facebook där hon förklarade varför centern röstade emot den regeringskonstellation som Kristersson föreslagit riksdagen.
        Att skapa falska Twitter- och Facebookinlägg är dock busenkelt. Det tar några minuter. Titta på nedanstående autentiska respektive falska inlägg och se den likheten på ytan. Smärre olikheter kan alltid förklaras med att olika appar och programvaror för att läsa Twitter- och Facebookinlägg genererar olika utseenden i viss utsträckning.







Övre bilden: en skärmdump av ett autentiskt Facebookinlägg. Nedre bilden: ett av artikelförfattaren förfalskat Facebookinlägg.

Hur avslöjar vi ytliga förfalskningar? Den källkritiska metoden är naturligtvis att undersöka varje inläg som sprids i form av skärmdumpar, för att se om inlägget går att finna hos upphovspersonen. Å andra sidan; om ett falskt inlägg ser autentiskt ut och samtidigt bekräftar någons förutfattade mening, minskar benägenheten att kolla källan.
        När det gäller djupa förfalskningar blir det ännu svårare. Det finns självlärande AI-teknik som i ett filmklipp kan visa en person som säger det en annan person säger med mimik och kroppsspråk som skapar en hög grad av autenticitet. Det ser helt enkelt trovärdigt ut att den person som syns i videon också uttrycker vad en annan personen säger. 
        AI-programmet behöver i storleksordningen 1 000 bilder av den person vars uttalande ska förfalskas. Tillsammans med det inspelade uttalandet formar AI-programmet ett nytt videoklipp med en autentisk person som uttrycker ett falskt innehåll.
        Det bästa exemplet jag hittills sett är när Jordan Peele låter Barack Obama hålla ett anförande under någon minut, där det är Peeles ord som Obama uttalar. Ju bättre dessa AI-program kommer att bli, desto svårare blir det att ens misstänka att ett videoklipp är en djup förfalskning.




Bild från en video där Barack Obama säger vad Jordan Peele har instruerat ett AI-program att Obama ska säga så autentiskt som möjligt.

Hur avslöjar vi djupa förfalskningar? Frågan är om en människa ens är kapabel till det i framtiden. I USA har man myntat begreppet och forskningsområdet Media Forensics (ungefär medial kriminalteknik). 
        Det innebär att försöka skapa AI-program som undersöker videoklipp med avseende på digitala fingeravtryck (digitala spår hos videoklippet), fysisk överensstämmelse i videon (om personer och objekt och miljöer stämmer överens) och semantisk rimlighet (är det rimligt att personen på videon säger det den säger).
        Ett exempel är en forskargrupp som har noterat att djupa förfalskningar ofta saknar ögonrörelser och blinkningar, eftersom vi sällan publicerar bilder av människor med slutna ögon. Att identifiera frånvaro av blinkningar kan vara ett sätt att avslöja falska videoklipp. Å andra sidan kommer sannolikt motdraget blixtsnabbt: man låter AI-tekniken forma rimliga ögonrörelser och blinkningar.
        Om vi inte lyckas avslöja djupa förfalskningar kan det få stora konsekvenser i framtiden. Ett exempel: Säg att du vill ha en falsk video som visar att P O Ågren rånar en bensinmack. Då instruerar du en AI-maskin genom att mata den med bilder på P O Ågren och en bensinmack i olika vinklar så att en till synes övervakningsvideo framträder. Därefter ser du till att rättsväsendet nås av videon.
        I dag kan en åklagare visa en övervakningsvideo som bevis för ett rån. I morgon kommer den tilltalade att hävda att övervakningsvideon är en djup förfalskning. Kommer övervakningsvideos att ha något bevisvärde i framtiden?
        Kommer vi överhuvudtaget att kunna ha tillit till bilder, stilla eller rörliga, i framtiden? Om inte, vad betyder den förlusten?

Inga kommentarer: