Lovguiden Logo
A woman with binary code lights projected on her face, symbolizing technology.

AI-deepfakes mod kvinder: Lovgivning og platforme svigter ofrene

Tusindvis af kvinder og piger verden over oplever dagligt, at AI-genererede sexbilleder og -videoer af dem spredes uden deres samtykke. Kunstigt manipulerede deepfakes ødelægger reelle liv, og FN's kvindeorganisation UN Women betegner fænomenet som en global krise, der kræver øjeblikkelig og koordineret handling fra regeringer, retssystemer og teknologiplatforme.

Hvad er deepfakes, og hvor udbredt er misbruget?

Deepfakes er billeder, lyd eller videoer, der er manipuleret ved hjælp af kunstig intelligens, så det ser ud som om en person har sagt eller gjort noget, vedkommende aldrig har gjort. Teknologien er ikke ny, men dens systematiske brug som et våben mod kvinder og piger er et hastigt voksende fænomen.

Omfanget dokumenteres i en rapport fra 2023:

  • 98 procent af alle deepfake-videoer online udgøres af deepfake-pornografi, og 99 procent af dem forestiller kvinder
  • Antallet af deepfake-videoer var estimeret 550 procent højere i 2023 end i 2019
  • Værktøjerne til at skabe dem er bredt tilgængelige, typisk gratis og kræver minimal teknisk ekspertise
  • Når AI-genereret indhold først er delt online, kan det kopieres i det uendelige, gemmes på private enheder og spredes på tværs af platforme – hvilket gør fuldstændig fjernelse næsten umulig

Ofrene anmelder ikke – og dem der gør, svigtes

Underrapportering udgør en af de største barrierer for retfærdighed. De overlevende, der vælger at gå til myndighederne, oplever imidlertid ofte, at retssystemet i sig selv bliver en ny kilde til traume:

  • De skal gentagne gange gennemse og beskrive misbrugsmateriale over for politi, advokater og platformsmoderatorer
  • De mødes med spørgsmål som: "Er du sikker på, at billederne er falske?" eller "Har du tidligere delt intime billeder?"
  • Hvis en sag når retten, er det typisk ofrets tøj, relationer og tidligere adfærd – ikke gerningsmandenes – der sættes under lup

Ifølge en undersøgelse fra UN Women oplevede 41 procent af kvinder i offentligheden, der var udsat for digital vold, også angreb eller chikane i den fysiske verden som følge heraf.

Tre årsager til, at deepfake-skabere sjældent straffes

Trods skadens omfang er retsforfølgelse sjælden, og årsagerne er strukturelle.

Lovgivningen er bagud. Færre end halvdelen af verdens lande har lovgivning, der adresserer online misbrug, og endnu færre har specifik lovgivning der dækker AI-genereret deepfake-indhold. De fleste eksisterende love om "hævnporno" eller billedbaseret misbrug blev skrevet, inden deepfakes eksisterede, og efterlader juridiske gråzoner som gerningsmænd kan udnytte.

Håndhævelsen halter. Selv når lovgivningen er på plads, mangler efterforskere digitale retsmedicinske kompetencer, grænseoverskridende koordinering og samarbejde med platformene. Beviser forsvinder hurtigt idet indhold spredes og kopieres, mens gerningsmænd gemmer sig bag anonymitet eller opererer på tværs af landegrænser. Platformene er langsomme – eller uvillige – til at dele data med retshåndhævende myndigheder, og efterslæbet i digitale retsmedicinske undersøgelser betyder, at sager stagnerer inden de er kommet i gang.

Teknologiplatformene svigter. Platformene har længe skjult sig bag "formidler"-status for at undgå ansvar for brugergenereret indhold. Byrden for at fjerne indholdet placeres hos ofrene, der forventes at spore hvert enkelt eksemplar af deres ikke-samtykkebaserede billeder på tværs af platforme og fortsætte med at anmelde dem – mens indholdet forbliver tilgængeligt. Indberetningsprocesser er uigennemsigtige og inkonsistente, fjernelsesanmodninger afvises automatisk, og samarbejdet med politiet er minimalt.

Et konkret eksempel illustrerer problemet: I december 2025 opdagede den britiske journalist Daisy Dixon AI-genererede, seksualiserede billeder af sig selv på platformen X, skabt med platformens eget Grok AI-værktøj. Det tog dage, inden platformen geoblokerede funktionen – mens misbruget fortsatte med at sprede sig.

Fem tiltag, der er nødvendige nu

For at stoppe deepfake-misbrug kræves der ifølge UN Women og internationale civilsamfundsorganisationer fem konkrete indsatser:

1. Lovgivning, der faktisk dækker deepfake-misbrug Regeringer skal vedtage lovgivning med klare definitioner af AI-genereret misbrug med fokus på samtykke, strikt ansvar for gerningsmænd, hurtige fjernelsesforpligtelser for platforme og protokoller for grænseoverskridende håndhævelse.

2. Retssystemer, der kan efterforske og retsforfølge Politiet har brug for træning, ressourcer og dedikeret kapacitet til at indsamle og bevare digitalt bevismateriale. Efterslæbet i digitale retsmedicinske undersøgelser skal adresseres, og internationale samarbejdsrammer skal fungere hurtigt og effektivt.

3. Teknologiplatforme holdes ansvarlige Techvirksomheder skal juridisk forpligtes til proaktivt at overvåge og fjerne misbrugsmateriale inden for obligatoriske tidsfrister, samarbejde med politiet og stå over for reelle økonomiske konsekvenser, når de undlader at handle.

4. Reel støtte til overlevende Der er brug for uddannede, traumebevidste retshåndhævere og juridiske fagfolk samt gratis retshjælp til alle, der er ramt af deepfake-misbrug.

5. Undervisning, der forebygger misbrug Digital dannelse – herunder undervisning i samtykke, online sikkerhed og hvad man gør, når man udsættes for misbrug – skal starte tidligt og nå alle. Forebyggelse er lige så vigtig som retsforfølgelse.

Statistikker bag krisen

Forskningsrapporten "I Didn't Consent" fra Panorama Global dokumenterer omfanget af billedbaseret seksuelt misbrug globalt:

NøgletalBeskrivelse
1,7xKvinder er 1,7 gange mere tilbøjelige til at blive udsat end mænd
4xLGBTQ+-personer har fire gange større risiko end heteroseksuelle
51 %Mere end halvdelen af billedmisbrugs-ofre i USA har overvejet selvmord
3.000Hjemmesider dedikeret til deling af ikke-samtykkebaserede intime billeder
1 ud af 8Amerikanere har været ofre for ikke-samtykkebaseret pornografi
15 %Andelen af briter i alderen 18-45, der oplevede billedmisbrug i 2020 – en fordobling fra 2019
1 ud af 3Australiere i alderen 16-64 har oplevet trusler om eller faktisk deling af intime billeder uden samtykke

Deepfake-misbrug kan desuden tjene som online katalysator for såkaldte æreskrænkelsesrelaterede forbrydelser i visse kulturelle kontekster, hvor opfattede brud på æresskikke på digitale platforme kan resultere i ekstrem fysisk vold mod kvinder eller drab.

Lovgivningsinitiativer i udvalgte lande

En håndfuld jurisdiktioner er begyndt at handle, mens størstedelen af verdens lande fortsat mangler tilstrækkelig lovgivning:

Land/regionLovgivning og indhold
BrasilienStraffeloven ændret i 2025: Øget straf for psykologisk vold mod kvinder ved brug af AI eller anden teknologi til at manipulere billeder eller stemmer
EUAI-forordningen pålægger gennemsigtighedsforpligtelser vedrørende deepfakes
StorbritannienOnline Safety Act forbyder deling af digitalt manipulerede eksplicitte billeder, men adresserer ikke skabelsen af deepfakes og kræver bevis for hensigt om at forvolde skade
USATake It Down Act dækker eksplicit AI-genererede intime billeder og kræver fjernelse fra platforme inden for 48 timer

Politiets særlige udfordringer

UN Women har i samarbejde med UNODC og UNDP udgivet en vejledning til politiet om håndtering af teknologifaciliteret vold mod kvinder og piger. Vejledningen identificerer centrale udfordringer for politiet:

  • Begrænset forståelse af, hvad teknologifaciliteret vold er, og hvilken skade det forvolder – herunder en fejlagtig opfattelse af, at digital vold er mindre alvorlig end fysisk vold
  • Lovgivningsmæssige huller: Næsten halvdelen af verdens kvinder mangler juridisk beskyttelse mod denne form for vold
  • Anonyme gerningsmænd: Individer bag anonyme konti er svære at identificere og retsforfølge, og platformene deler sjældent abonnentoplysninger
  • Grænseoverskridende natur: Gerningsmænd kan operere fra ethvert sted med internetadgang, og nationale lovgivninger afspejler sjældent cyberrummets transnationale karakter

Vejledningen anbefaler, at politiet anlægger en offercentreret og traumebevidst tilgang, opretholder fokus på gerningsmanden frem for offeret i alle efterforskninger og sikrer, at digitale beviser indsamles og opbevares korrekt og rettidigt.

"Det er ikke et nicheproblem på internettet. Det er en global krise." — UN Women