Astrup: – Det er ikke greit i det hele tatt – det er svært problematisk

27.11.2019 | Tekst: Sondre Tallaksrud

Digitaliseringsminister Nikolai Astrup er bekymret for misbruk av «deepfake». En teknologi som er i rivende utvikling.

HADDE DU BLITT LURT? Ser du hvem vi har «deepfaket» på dette bildet? Foto Sondre Tallaksrud.

At du nå kan se ut som en annen person både i form av bilder og film – kan skape store problemer for troverdigheten til alt som legges ut på nettet. Nikolai Astrup er bekymret for hvordan folk kan misbruke politikere framover.

– All teknologi kan både brukes og misbrukes, og deepfake-teknologien er det grunn til å bekymre seg for. Vi ser jo at det er enkelt å etterligne politikere og skape falske nyheter. Utfordringen her er at teknologien kommer til å bli så god at muligheten for å drive påvirkning på demokratiske prosesser blir stor, og det gir sterk grunn til bekymring, sier ministeren.

– Perfekte deepfake er bare måneder unna

At deepfake er i voldsom utvikling er det liten tvil om. På Youtube kan du blant annet se Barack Obama bli «deepfaket», du kan se portrettet av Mona Lisa bli «levende», og det finnes sider på nettet som fikser alt for deg, så lenge du har bilde eller film av de to personene du vil koble sammen. Deepfake-spesialisten Hao Li, mener perfekte deepfake bare er måneder unna.

Astrup mener et viktig forsvar mot dette er at unge lærer seg å være kritiske til hva man ser på nettet.

– Derfor er det viktig at medietilsynet gjør en jobb med dette i dag. Jeg tror det å sørge for digital dømmekraft inn i utdanningen helt fra barneskolealder er viktig for å kunne skille ekte fra falske nyheter. Regjeringen har lagt fram nye læreplaner hvor dømmekraft er en viktig del av det barna skal lære allerede fra tidlig alder.

– Så vi har ikke noe forsvar mot dette i dag?

Nikolai Astrup er bekymret for eventuelle misbruk av «deepfake». Foto: Sondre Tallaksrud.

– I EU jobbes det en god del med denne problemstillingen, og vi følger det arbeidet tett. Men vi har ikke alle svarene i dag, det er rett og slett fordi utviklingen går så fort at vi må bevege oss enda raskere for å klare å henge med . Det er ikke teknologien i seg selv som er utfordringen , men hvordan den anvendes.

– Hvordan ville du reagert hvis du så en som holdt en tale med ditt ansikt?

– Det er ikke greit i det hele tatt – det er svært problematisk.

– Man trenger vel noe som gjør at folk kan være sikre på hvem som egentlig snakker?

– Ja det gjør man. Jeg har ikke svar på det i dag, men dette er vi nødt til å jobbe mye mer med fremover, sier ministeren.

– Vi får aldri et sikkert forsvar

Inge Harkestad, som er spesialrådgiver innen digitalisering i Tekna, tror vi aldri vil få et sikkert forsvar mot denne teknologien.

Inge Harkestad tviler på at vi noengang får et fullverdig forsvar mot «deepfakes». Foto: Privat.

– Vi har ikke noe fullgodt, teknologisk forsvar mot falske nyheter og manipulert innhold, og jeg tror ikke vi noensinne vil få det. Husk at dette også fantes før internett-alderen. Det finnes teknologi som kan hjelpe oss, og mer vil bli utviklet, men vi kommer ikke unna sunn fornuft og refleksjon, sier han.

Han er glad regjeringen satser på å styrke digitalt dømmekraft i læreplanene.

– Kildekritikk og digital dømmekraft i vid forstand vil bli stadig viktigere, noe læreplanene definitivt må gjenspeile. Samtidig er det kanskje de unge som har best digital dømmekraft i dag. Det kan bli mer utfordrende å endre tankesettet til voksne. Før var jo bilder og videoer jevngodt med bevis, men den verdenen finnes ikke lenger.

Han mener det kan bli et teknologisk våpenkappløp mellom forsvar og angrep på sikt.

– Vi trenger teknologi for å gjøre oss tryggere på at innholdet ikke har blitt endret, og på at det kommer fra den vi tror det kommer fra. Det kan lages teknologi for å avdekke deepfakes, men den samme teknologien kan brukes til å gjøre deepfakes vanskeligere å avsløre.

– Det blir et våpenkappløp der de som jukser sannsynligvis vil ha et lite forsprang mesteparten av tiden, sier Harkestad.

Astrup mener det er viktig å tenke på at teknologien i seg selv ikke er farlig,. Blir den brukt på riktig måte kan vi ha stor nytte av den i framtiden.

– Det er viktig at teknologien som ligger bak deepfake også har en nytteverdi, det er jo den samme teknologien som gjør at vi kan lage syntetiske datasett, for eksempel til testdata, og det kommer til å være viktig for utviklingen av kunstig intelligens i både offentlig og privat sektor – det å ha muligheten til å bruke syntetiske data.

Les også