Deepfake - hvad er deepfake og hvilke konsekvenser kan det få?

Deepfake - hvad er det, og hvilke konsekvenser kan det få?

Deepfake - hvad er det?

Deepfake – hvad er det, og hvilke konsekvenser kan det få?

Deepfake er et begreb, der er blevet brugt en del i de senere år – både på de social medier og på traditionelle nyhedsmedier. Selvom det er helt nyt, har det nemlig allerede stor indflydelse og kan få uoverskuelige konsekvenser for vores samfund og demokrati, som vi kender det i dag. Deepfake giver en helt ny dimension til fake news og gør det sværere end nogensinde at skelne mellem ægte og falskt i den konstante nyhedsstrøm. Men hvad er det egentlig, hvordan vil konsekvenserne påvirke vores samfund, og hvad kan vi gøre for at forhindre det?

 

Vores samfund er i udvikling som aldrig før. Det ses især i forbindelse med internettet, der konstant forandrer sig og derfor medfører helt nye udfordringer og problemstillinger. En af dem er det såkaldte ”deepfake”, et helt nyt begreb, der officielt kun har været brugt siden 2017. Alle kender fænomenet fake news – og deepfake hænger tæt sammen med det. Deepfake er nemlig et begreb, der beskriver brugen af kunstig intelligens til at skabe realistiske videoer af begivenheder, der aldrig har fundet sted. Derfor kan det have afgørende indflydelse for, hvordan vi både i dag og i fremtiden lærer om og forstår samfundet og verden omkring os.

Historien om deepfake

Som sagt er deepfake et moderne begreb. Oprindelsen af ordet stammer fra en Reddit-bruger, der med navnet ”deepfakes” delte falske videoer på det sociale medie. Nogle mener, at ordet er sammensat af de engelske begreber ”deep learning” og fake”. Det har officielt været brugt siden 2017, hvor de første medier begyndte at tale om deepfake.

Deepfake er et udtryk for falske videoer, der fremstilles ved hjælp af kunstig intelligens. Eksempelvis findes der algoritmer og programmer, der kan fordreje en persons ansigt, så vedkommendes udtryk og mimik matcher et andet lydspor. På den måde kan man få en person til at gøre eller sige ting på video, som aldrig har fundet sted i virkeligheden. Deepfake videoer kan derfor bruges til at skabe falske pornofilm med kendtes ansigter, eller det kan bruges til at lægge ord i munden på en politiker. En del af den slags videoer florerer allerede på diverse sociale medier.

Deepfake er således ikke noget skræmmende fremtidsscenarie, men en meget reel udfordring, som vi står over for lige nu.

Teknologien bag

Kunstig intelligens er ikke noget nyt fænomen. Det har eksisteret i flere år, men forbedres naturligvis hele tiden og giver nye muligheder. Kunstig intelligens i form af robotter bruges især på de sociale medier og i forbindelse med fake news. Kunstig intelligens giver nemlig mulighed for at indsamle, analysere og behandle hidtil usete mængder af data, som kan bruges til at skræddersy og målrette specifikt data eller indhold til en målgruppe. Det kendes også som såkaldte ”bots” på sociale medier i form af falske profiler, der kan efterligne menneskelig aktivitet og hele tiden bliver bedre til det.

Teknologien bag deepfake er blevet muliggjort og udviklet af både akademiske forskere og amatører. I dag er det muligt at bruge kunstig intelligens til at lave forbindelse mellem formen på ansigtet hos en, der taler, og et selvstændigt lydspor. På den måde kan man i realtid ændre en persons ansigt, så det ligner, at vedkommende siger noget helt andet, end vedkommende rent faktisk gør. Teknologien kan sammenlignes lidt med det sjove ”face swap” fra Snapchat, hvor man i realtid kan optage videoer med en andens ansigt – fx en kendis eller en person, der sidder ved siden af. Snapchats version er selvsagt langt mindre veludviklet, men den giver et billede af, hvordan virkeligheden kan forvrænges nu og her, mens den finder sted. I fremtiden kan vi altså ikke nødvendigvis stole på en udsendelses ægthed, selvom der sendes live. Samtidig er teknologien i dag så veludviklet, at man ikke behøver noget særligt udstyr – videoerne kan skabes med et helt almindeligt videokamera.

Hvordan bruges deepfake?

Det giver sig selv, at deepfake videoer er oplagte at bruge i forbindelse med fake news. Indtil nu har videomateriale været til at stole på, da det er langt sværere at manipulere med end billeder eller tekst. Derfor er der mange, der stoler på det, de ser. Men nu hvor teknologien er blevet så vedudviklet, kan fake news altså sagtens indeholde videomateriale, der ser utroligt ægte ud. I et sådan tilfælde er der tale om deepfake.

Det kræver ikke lang tænketid, før man kan forestille sig de mange måder, hvorpå deepfake kan bruges – og misbruges. I 2018 var det en trend på de sociale medier at sætte Nicolas Cage ind i en række klassiske film, som han oprindeligt slet ikke spillede med i. Det er harmløst nok i sig selv og har ikke haft nogen større konsekvenser. Men forestiller man sig, hvordan deepfake kan bruges til at skabe falsk hævnporno, politiske taler eller måske krigsklip, bliver det hurtigt klart, hvor store konsekvenser fænomenet kan få for vores samfund. Selv hvis en video bliver lavet i god mening som en joke eller satire, ved man ikke længere, hvordan indholdet bliver opfattet.

Svært at afsløre

Problemet med deepfake er, at teknologien er så veludviklet, at det ikke længere er til at se med det blotte øje, at der er tale om falskt indhold. Videoer er altid blevet forfalskede, men i dag ser det mere realistisk ud end nogensinde. Hvis man falder over en video på fx de sociale medier, er det næsten umuligt at gennemskue deepfake videoer, især hvis man ikke ved, hvad man skal kigge efter. Det samme gælder for de traditionelle nyhedsmedier, som kan have samme problem og dermed komme til at dele indhold, der reelt er falskt.

Det er samtidig blevet både hurtigere og nemmere at skabe deepfake videoer. Mange forudser, at deepfake er et fænomen, der især kommer til at tage fart her i 2019. Det skyldes, at omkostningerne ved fremstilling af deepfake videoer er blevet væsentligt nedsat. Faktisk kom der i januar 2018 en software kaldes ”Fake App”, som gør det hurtigere og nemmere for alle med en computer at skabe videoer med andre ansigter. Mens det er blevet hurtigt og nemt at skabe deepfake videoer, er det blevet sværere og mere tidskrævende at skulle gennemskue og afsløre. Selvom man analyserer en deepfake video og finder frem til, at den er forfalsket, risikerer man altså, at videoen allerede er gået virealt, og skaden dermed allerede er sket.

En trussel for vores demokrati

Der kan ikke herske tvivl om, at deepfake er en trussel for vores samfund – og ikke mindst de moderne demokratier, som vi kender dem i dag. Demokratier bygger nemlig på tillid, og et veletableret demokratisk samfund forudsætter, at borgerne er korrekt oplyst. De falske deepfake videoer kan i princippet få stor indflydelse på folks stemmer og dermed den endelige regering, på samme måde som fake news havde indflydelse på det amerikanske præsidentvalg i 2016.

Mængden af misinformation og fake news stiger hele tiden. Samtidig bliver de mere troværdige og sværere at gennemskue. Det gør det sværere for samfundsborgere at skelne mellem sandt og falskt, både på de sociale medier og på traditionelle nyhedskanaler.

Samtidig kan deepfake også have en omvendt funktion. Hvis en politiker f.eks. bliver beskyldt for at have sagt eller gjort noget forkert, kan vedkommende sige, at en eventuel video af situationen er falsk. På den måde kan deepfake videoer både være med til at bekræfte fake news og afkræfte ægte historier.

Hvad kan vi gøre?

Det står altså klart, at deepfake er en seriøs trussel for vores samfund og demokrati – og vi begynder allerede at mærke konsekvenserne. Eksempelvis er flere stjerner allerede blevet udsat for falsk pornografi, ligesom der også er lavet en del falske videoer med politikere som Barack Obama og Donald Trump. Og eksperter i deepfake siger, at vi kun kommer til at mærke endnu mere til det her i 2019 og fremefter.

Så hvad kan vi egentlig gøre for at ruste os bedre mod deepfake og de falske videoer? Vi har allerede sat kampen ind mod fake news og har stort fokus på det aspekt, og nu kommer der endnu et lag på. Det betyder dog ikke, at vi skal føle os helt fortabte, for der arbejdes hele tiden på løsninger og ideer til, hvordan vi kan tackle og imødekomme de nye udfordringer – og deepfake er ingen undtagelse.

Platformene sætter ind

Sociale medier og platforme er allerede opmærksomme på deepfake og har taget forskellige tiltag for at begrænse konsekvenserne. Eksempelvis har sociale medier som Twitter, Gfycat, Discord, Reddit og Pornhub sat regler ind for at begrænse og fjerne deepfake videoer. Det samme gælder for Google, som i 2018 forbød falske pornografiske billeder. Det er dog svært umiddelbart at gøre, hvorvidt og hvor meget retningslinjerne bliver overholdt. Men det er en god start, at de sociale medier og platforme er opmærksomme på problemstillingen, da det er her, at de falske videoer oftest bliver postet, delt og dermed spredt. Hvis man kan fjerne deepfake videoer fra de sociale medier, hurtigt efter de blevet delt, kan man formentlig begrænse en stor del af skaderne.

Teknologien er tveægget sværd

Den kunstige intelligens og forbedrede teknologi har muliggjort realistiske deepfake videoer. Men heldigvis kan den kunstige intelligens også bruges omvendt, nemlig til en aktiv og effektiv bekæmpelse af fænomenet. Eksempelvis er der skabt en algoritme, der i 80% af alle tilfældene kunne opfange og identificere fake news. I løbet af et par måneder i 2018 lykkedes det Twitter at lukke ca. 70 millioner falske profiler ved hjælp af en sådan algoritme.
Forskere arbejder samtidig på programmer, der automatisk kan analysere og afsløre de manipulerede videoer. Det gøres eksempelvis ved at lede efter de mindste uoverensstemmelser mellem billede og lyd, som menneskehjernen ikke opfatter. Ved at bruge kunstig intelligens kan man altså nedsætte den tid, som bruges på at identificere de falske videoer, hvilket igen er med til at begrænse konsekvenserne.

Uddannelse og oplysning er nøglen

Selvom det er gode nyheder, at der udvikles programmer og algoritmer til bekæmpelse af deepfake videoer, vil vi formentlig aldrig blive helt fri for fænomenet. Det samme gælder for fake news, som nok altid vil eksistere i en eller anden grad. Nøglen er derfor ikke at forsøge at få det fjernet helt, men derimod at uddanne fremtidens mediebrugere til at forholde sig kritisk til alt materiale, de møder på nettet.

Målet er at skabe kritiske og kompetente teknologi- og mediebrugere i fremtiden. Bruger man sin sunde fornuft, og ved man samtidig, hvad man skal være opmærksom på, kan man begrænse indflydelsen fra fake news og deepfake videoer. Det kan eksempelvis gøres ved at indføre nye obligatoriske fag som fx teknologiforståelse på både universiteter, ungdomsuddannelser og folkeskole. På den måde oplærer man fremtidens mediebrugere til at forholde sig kritisk til information, og dermed bliver fake news og deepfake mindre magtfulde og skadelige værktøjer.

Kommer deepfake til Danmark?

Deepfake videoer er formentlig allerede kommet til Danmark i en eller anden grad. Landegrænser eksisterer i mindre grad på de sociale medier, og derfor vil en del danske brugere sikkert allerede have set og oplevet deepfake videoer, hvad enten de er klar over det eller ej.

Indtil videre har vi ikke set nogen slemme eksempler med danskere, der er blevet udsat for eller udstillet i falske videoer. Men det er ikke utænkeligt, at vi snart kommer til det. Det er ikke mindst tilfældet, efterhånden som teknologien og muligheden bliver mere tilgængelig for den almene borger. Man kan sagtens forestille sig, at ofrene i fremtiden ikke kun vil være kendte personer og politikere, men også helt almindelige danskere. Eksempelvis kan man ved hjælp af deepfake skabe ødelæggende hævnporno, hvis man er vred på en ekspartner. Føler man sig dårligt behandlet af en virksomhed, kan man ødelægge deres omdømme ved at skabe en falsk video. Og sådan kan man blive ved. Derfor kan det godt betale sig at vide lidt om fænomenet og være klar over, hvordan man skal forholde sig, hvis man udsættes for deepfake.

Ekspert i deepfake

William Atak er ekspert i alt, hvad der har med online omdømme og digitale shitstorms at gøre. Derfor ved han også usædvanligt meget om deepfake, da det netop kan få en afgørende rolle for både virksomheders og privatpersoners ry og omdømme på nettet. Google er endnu ikke veludviklet nok til at skelne mellem sand og falsk information – og fake news og deepfake kan derfor få lige så store konsekvenser for virksomheder og personer som reel dårlig omtale. I nogle tilfælde kan det måske være en endnu værre situation, da man ikke har gjort noget galt og dermed kan blive dømt på et uretfærdigt grundlag.

William Atak er en ekspert i deepfake, der har mange års erfaring med internettet og har været med fra start. Han har været med på tæt hold i mange situationer med blandt andet virksomheder, der er blevet udsat for fake news og trolls på de sociale medier og internettet generelt. Ved hjælp af dybdegående analyser har han tilegnet sig viden og kendskab til, hvordan man bedst begår sig i sådanne situationer. Udsættes man for deepfake, er en ekspert i deepfake en vigtig hjælp at have ved sin side. William Atak er derfor den rigtige at kontakte, hvis man søger en ekspert i deepfake.