Sist oppdatert:
De store plattformselskapene trekker seg fra forpliktelser knyttet til den europeiske bransjenormen mot desinformasjon, viser de siste rapporteringene som omfatter sosiale medier og søkemotorer som TikTok, Meta, Microsoft og Google.
Egenrapporteringene fra første halvår i år viser en tydelig nedgang i moderering av feil- og desinformasjon som bryter med vilkårene i bransjenormen mot desinformasjon (Code of Conduct on Disinformation). Rapportene sett under ett viser at de store plattformselskapene sluttet å rapportere på 23 kvantitative indikatorer knyttet til tiltak i bransjenormen fra høst 2024 til vår 2025.
Digital spredning av feilaktig informasjon er en utfordring for samfunnet. Det siste tiåret har vi sett en økning i omfanget av feilinformasjon og desinformasjon, spesielt i sosiale mediekanaler, noe som gjør det krevende å vite hvilket innhold man kan stole på. Tidligere i år rangerte Verdens økonomiske forum – for andre år på rad – feilinformasjon og desinformasjon som en av de største globale utfordringene på kort sikt.
Omfanget av upålitelig informasjon, og måten den produseres og distribueres på, har endret seg kraftig i takt med den teknologiske utviklingen. Spesielt desinformasjon, som spres med en hensikt om å påvirke mottaker, kan skape polarisering, forringe den åpne debatten og svekke befolkningens tillitt til hverandre, til myndigheter og til redaktørstyrte medier. I ytterste konsekvens er desinformasjon en trussel mot demokratiet.
Bransjenormen mot desinformasjon ble først etablert i 2018 og revidert i 2022. Den forsterkede bransjenormen er signert av rundt 30 selskaper, inkludert plattformselskaper som Meta, Google og Vimeo. Unntaket er X som trakk seg fra forpliktelsene i 2023.
Ved å signere bransjenormen har plattformselskapene forpliktet seg til å begrense risiko for spredning av desinformasjon, og rapportere på hvilke tiltak de har gjort for sine tjenester. De skal også sette grenser for inntektsstrømmene fra desinformasjon.
Den europeiske bransjenormen mot desinformasjon har vært en frivillig ordning, en Code of Practice. Fra og med juli gikk kodeksen over til å bli en Code of Conduct tettere knyttet opp til Digital Services Act (DSA; EU-forordningen for digitale tjenester).
Medietilsynet har gjennomgått rapporteringen fra Meta (Facebook og Instagram), Google (YouTube og Google Ads), Microsoft (LinkedIn og Microsoft Ads) og ByteDance (TikTok) fra og med første halvår 2023. Tidligere gjennomganger finner du her.
Årets egenrapporteringer viser en klar nedgang i rapportert aktivitet:
- Google, Meta, Microsoft og TikTok trekker seg fra en rekke forpliktelser og har sluttet å rapportere på flere viktige indikatorer. Antallet indikatorer disse fire plattformene har rapportert på til sammen, har gått ned fra 83 i første halvår i 2023 til 62 første halvår i år.
- Kvaliteten på rapporteringen på kvalitative og kvantitative indikatorer er nedadgående.
- Meta rapporterer fremdeles ikke tall fra Norge for Facebook og Instagram, til tross for at dette gjentatte ganger er tatt opp med Meta av Kultur- og likestillingsdepartementet og Medietilsynet. De oppgir ofte også kun omtrentlige tall, hvor tall fra Facebook og Instagram er slått sammen.
- Det er en dramatisk nedgang i sosiale mediers moderering av feil- og desinformasjon som bryter med vilkårene.
- Færre falske kontoer fjernes. Facebook alene fjernet 1,7 milliarder falske kontoer globalt første halvår 2025, som var en nedgang fra 2,5 milliarder halvåret før.
- Sosiale medier har nedprioritert formidling av faktamerket innhold. Meta har sluttet å rapportere tall for denne forpliktelsen.
- Google, Microsoft, Meta og TikTok skal rapportere om tjenestenes integritet, blant annet om hvordan algoritmene bidrar til spredning av desinformasjon, noe de i liten grad rapporterer på. Dette har vært en gjennomgående svakhet i flere rapporteringsrunder.
Dette er plattformselskapenes egenrapportering. Medietilsynet har ikke mulighet til å vurdere om de innrapporterte tallene er korrekte.
Plikt til å motvirke risikoer
Bransjenormen er en frivillig ordning, og er utviklet i samarbeid mellom Europakommisjonen, europeiske mediemyndigheter og plattformselskapene selv. Samtidig har EU et ris bak speilet i EUs forordning for digitale tjenester (Digital Services Act – DSA). Målet med DSA er å styrke brukernes rettigheter og motvirke samfunnsrisikoer på internettbaserte tjenester, inkludert «negative effekter for den offentlige samtalen og valgprosesser».
Denne forpliktelsen inkluderer tiltak mot desinformasjon i innlegg og annonser som bryter med vilkårene, kapitalisering på virale desinformasjonsinnlegg, bruk av falske politiske profiler og andre former for inautentisk innhold og kontoer. Med DSA har de største plattformselskapene plikt til å identifisere og motvirke risikoer på egne tjenester, inkludert risikoen for at algoritmene løfter frem desinformasjon og begrenser spredningen av troverdig innhold, som fra redaktørstyrte medier.
Bransjenormen mot desinformasjon er et rammeverk for rapportering av hvilke tiltak plattformselskapene har gjennomført, og etterlevelse av bransjenormen er et såkalt «avbøtende tiltak» etter DSA. De største tjenestene rapporterer to ganger i året. God etterlevelse av bransjenormen kan bidra til at Europakommisjonen ikke oppretter en tilsynssak etter DSA.
Trender i rapportene fra første halvår 2025
Annonser: Plattformselskapene skal rapportere på hvordan de håndhever egne brukervilkår for annonser, inkludert annonser som inneholder feil- og desinformasjon og annonser som er ment for politisk påvirkning.
- Antallet annonser som plattformselskapene har slettet på bakgrunn av brudd på retningslinjer knyttet til desinformasjon har gått ned fra 81 millioner andre halvår i 2023 til 35 millioner for første halvår i 2025 i EØS. En av grunnene til dette er at Microsoft ikke lenger rapporterer tall for Microsoft Ads. Antallet fjernede annonser på Facebook og Instagram er halvert på ett år, fra 170 000 til 83 000.
- Meta er det eneste plattformselskapet som rapporterte på aksepterte og forkastede politiske annonser i første halvår 2025. De rapporterte da å ha akseptert og merket over 1,2 millioner politiske annonser på Facebook og Instagram, mens over 280 000 politiske annonser ble forkastet grunnet manglende verifisering.
Inautentisk atferd: Bruk av KI-generert innhold og kontoer, og både KI-skapt og menneskeskapt falske politiske profiler, er en viktig del av økosystemet for spredning av desinformasjon. Også antallet fjernede, inautentiske poster og kontoer er det en betydelig nedgang.
- Falske kontoer rapportert i EØS-området har gått dramatisk ned fra andre halvår i 2023. Noe av nedgangen skyldes at Microsoft har trukket seg fra forpliktelsen, og ikke lenger leverer tall for LinkedIn på dette. TikTok øker fra 10 millioner høsten 2024 til 20 millioner, men er langt unna toppnivået høsten 2023 (93 millioner). Meta rapporter kun på globalt nivå for Facebook og Instagram, ned fra 2,5 milliarder høsten 2024 til 1,7 milliarder.
- Falske nettverk defineres som koordinerte forsøk på å manipulere den offentlige samtalen, omtalt som Foreign Information Manipulation and Interference (FIMI). Første halvår i år tok TikTok ned 16 nettverk med Europa som mål, med 31 000 kontoer med totalt 10 millioner følgere, mot fem i tilsvarende periode i 2023 med 3000 kontoer og én million følgere. Facebook og Instagram har kun tatt ned ett nettverk hver, mot tre og to i forrige periode, med svært få kontoer og følgere i nettverkene.
Faktasjekkere: Bransjenormen pålegger selskapene å styrke arbeidet med faktasjekking, samt rapportere på hvilke avtaler de har med faktasjekkere/organisasjoner, hvilke språk og land som dekkes, og hvor mange poster/innhold som er merket som faktasjekket.
- TikTok rapporterer at tjenesten samarbeider med 12 ulike faktasjekkerorganisasjoner i Europa, som alle er akkreditert av det internasjonale faktasjekkernettverket IFCN. Ifølge selskapet dekker faktasjekkerne 23 språk, noe som skal inkludere minst ett offisielt språk i hvert EU-land. Vi kan dermed anta at det er faktasjekkere som behersker skandinaviske språk på TikTok.
Faktamerket innhold: Egenrapporteringen viser en klar nedgang i omfanget av faktamerket innhold. Tidligere har både TikTok og Meta rapportert tall for faktamerket innhold, men for første halvår 2025 er det bare TikTok som oppgir tall.
- For EØS-området har TikTok merket 9408 poster. For Norge er det merket 61 videoer.
- TikTok har rapportert at delingen av postene synker med rundt 30 prosent etter at de ble faktamerket. Rapporteringen gjelder EØS-området.
Den mangelfulle rapporteringen fra Meta henger sammen med hva toppsjef Mark Zuckerberg varslet i januar i år. Der kom det frem at selskapet stanser samarbeidet med 90 faktasjekkere over hele verden. Meta har samtidig endret håndteringen av innholdsmoderering på sosiale medier som Facebook og Instagram. I en uttalelse omtalte Zuckerberg innholdsmoderering som “sensur”. Meta-lederen varslet også at politisk innhold får høyere prioritet og synlighet gjennom plattformselskapets algoritmer.
Desinformasjonsjonsinnlegg fjernet: Gjennom bransjenormen forplikter plattformselskapene seg til å iverksette tiltak som reduserer risikoen for at tjenestene deres bidrar til spredning av skadelig desinformasjon. De skal også rapportere hvor mange innlegg med desinformasjon som er blitt fjernet.
- Det samlede tallet som er rapport inn fra Google, Meta, Microsoft og TikTok viser at det er fjernet 226 725 innlegg i EØS-området første halvår i år. Tallet er det laveste som er rapportert inn siden Medietilsynet begynte å gå gjennom rapportene i 2023.
Tabell 1: Antall desinformasjonsinnlegg tatt ned i EØS første halvår 2025, per tjeneste.
| Tjeneste | Plattformselskap | Antall desinformasjonsinnlegg tatt ned |
| YouTube | 4110 | |
| Facebook og Instagram | Meta | 837 |
| Microsoft | 12 675 | |
| TikTok | ByteDance | 209 103 |
- Ser en kun på Norge, er det igjen TikTok som rapporterer flest fjernede desinformasjonsinnlegg i første halvår 2025. Meta rapporterer ikke tall for Norge.
Tabell 2: Antall desinformasjonsinnlegg tatt ned i Norge første halvår 2025, per tjeneste.
| Tjeneste | Plattformselskap | Antall desinformasjonsinnlegg tatt ned |
| YouTube | 47 | |
| Microsoft | 85 | |
| TikTok | ByteDance | 1378 |
Som et apropos til nedgangen i fjerning av desinformasjonsinnlegg, viser forskning at det har vært en økning i spredning av desinformasjon det siste tiåret. Omfanget øker spesielt i perioder med større geopolitiske hendelser og konflikter.
Meta rapporterer ikke for Norge
Medietilsynet har vurdert rapportene siden 2023 og har pekt på en rekke mangler, blant annet at Meta ikke rapporterer tall fra Norge. Statsråden har gjentatte ganger tatt opp Metas manglende rapportering i dialogmøter med plattformene. I tillegg har Medietilsynet reist kritikken gjennom ulike EU-fora, blant annet i Det europeiske medieråd.
Medietilsynets vurdering av tidligere rapporter har konkludert med at Meta, Google, Microsoft og TikTok har en rekke tiltak mot desinformasjon, og at de har tatt forpliktelsene i bransjenormen på alvor. Kvaliteten på rapporteringen økte gjennom 2023 og 2024. Rapportene som ble publisert i september er de første etter regjeringsskiftet i USA, og utviklingen kan tyde på et skifte, særlig fra de amerikanske selskapene.
Hold deg oppdatert på hva som skjer i Medie-Norge med Medietilsynets nyhetsbrev: 📰Abonner på nyhetsbrevet her