Norsk politi har mottatt et titalls tips om overgrepsmateriale laget av dataprogrammer. Nå advarer Kripos om at det blir stadig vanskeligere å fastslå hvordan materialet har blitt laget.
– Kripos har mottatt et titalls antall tips via NCMEC om KI-generert overgrepsmateriale det siste året, skriver Helge Haugland til NRK.
Haugland leder avsnittet for innledende etterforskning ved Kripos. Det er denne gruppen som på vegne av Norge som årlig tar imot tusenvis av tips om overgrepsbilder og -videoer fra verdens teknologiselskaper.
De siste årene har det blitt stadig enklere å bruke datamaskiner til å lage bilder, lyd, og videoer med bruk av kunstig intelligens (KI).
Ifølge Haugland er det i noen tilfeller enkelt å avgjøre om innholdet de undersøker er datagenerert, men at utviklingen går raskt på feltet.
– Der vi for noen måneder siden enklere kunne konstatere at et bilde var KI-generert, er den grensen i noen av sakene flyttet betydelig mot høyere «kvalitet» på materialet og således vanskeligere å avgjøre om innholdet er et fotografi/video eller generert av KI. Et slik skifte er alvorlig, skriver Haugland.
Det er den ideelle organisasjonen NCMEC som tar imot tips om overgrepsmateriale, og som så deler det med politimyndigheter i ulike land. I fjor mottok organisasjonen 4.700 rapporter om datagenerert overgrepsmateriale som viste barn, ifølge Reuters.
Fremveksten av datagenerert overgrepsmateriale ble omtalt av en rapport i juni 2023. Der noterte forskere tilknyttet Thorn og Standford Observatory at datagenerert innhold stod for mindre enn én prosent av hva som ble delt i forum dedikert til overgrepsmateriale, men at det hadde økt betraktelig siden august 2022.
Kripos opplyser om at det er ulovlig etter norsk lov å lage, videreformidle og lagre KI-genererte fremstillinger som seksualiserer barn.
Tidligere i år gikk datagenererte bilder av superstjernen Taylor Swift viralt på det sosiale mediet X. Brukere på 4Chan og Telegram skal ha benyttet et KI-verktøy fra Microsoft til å lage flere av bilde, ifølge 404 Media.
De mest populære tjenestene for å lage bilder har regler mot å lage seksualiserte fremstillinger av barn og voksne. Midjourney oppgir at de vil blokkere enkelte tekstkommandoer i sine retninglinjer. Det samme gjør OpenAI som tilbyr tjenestene ChatGPT og Dalle.
Vanskeligere for politiet
Haugland advarer mot at det datagenererte overgrepsmaterialet kan binde opp etterforskningskapasitet, og slik gjøre det vanskeligere å stanse pågående overgrep.
– Fremover risikerer vi at vi forsøker å identifisere barn som ikke finnes, som er utsatt for «overgrep» som ikke er begått i den fysiske verdenen, skriver Haugland.
Haugland mener at de fremover må forholde seg til at overgrepsmateriale kan være ekte, men at det har blitt manipulert av KI-verktøy for å gjøre det vanskeligere å identifisere ofrene og overgriperne.
Det er også en bekymring at «innhold med ekte overgrep begått mot ekte mennesker» kan bli redigert slik at de fremstår som KI-generert.
– Det sier seg selv at våre ressurser til dette arbeidet vil bli strekt ytterligere.
Lovprosess satt på vent i EU
I fjor kollapset forhandlingene om et kontroversielt lovforslag om å beskytte barn i EU. Lovforslaget hadde som mål å innføre en rekke tiltak som mer overvåkning av internettjenester, å innføre en meldeplikt for europeiske selskaper, og å etablere et felleseuropeisk senter for å koordinere arbeidet på feltet.
– Dette vil invadere privatlivet til alle borgere i landet vårt, og vil være mer skadelig enn hva man prøvde å beskytte mot i utgangspunktet, skrev én av over 300 forskere som signerte oppropet mot lovforslaget.
Som et midlertidig tiltak har EU derfor forlenget de nåværende reglene til april 2026. Det vil tillate europeiske selskaper å frivillig varsle om overgrepsmateriale, men det vil ikke pålegge dem noen form for meldeplikt slik som man har i USA.