1. Startsiden
  2. Nyheter
  3. Nyhetssaker

Nyhetssaker

Medietilsynet mener plattformene må være mer åpne om algoritmebruk og konsekvenser for desinformasjon

Hånd holder telefon med appene til sosiale medier på skjermen.

De største internettplattformene er blitt bedre på å rapportere om hva de gjør for å bekjempe desinformasjon, men Medietilsynet etterlyser mer åpenhet om tiltak for å redusere risikoen ved algoritmisk påvirkning.

På oppdrag fra Kultur- og likestillingsdepartementet har Medietilsynet for andre gang kartlagt hvordan globale plattformer og søkemotorer følger den europeiske bransjenormen mot desinformasjon, som skal bidra til å redusere risikoen ved spredning og forsterkning. Tilslutning til bransjenormen er frivillig, men må ses i sammenheng med EUs forordning for digitale tjenester (DSA – Digital Services Act).  

–  Bransjenormen gir viktig innsikt i hvordan plattformene behandler desinformasjon, faktasjekk og politisk reklame. Dette gjør oss bedre i stand til å forstå omfanget av desinformasjon og treffe riktige mottiltak, sier Mari Velsand, direktør i Medietilsynet.    

Medietilsynet ønsker mer informasjon om algoritmebruk 

Medietilsynet har vurdert rapportene fra YouTube, Facebook, Instagram, LinkedIn og TikTok om hvordan de jobber med å redusere spredning av desinformasjon. Denne gangen har Medietilsynet sett særlig på plattformenes tiltak mot uønsket påvirkning ved valg og misbruk av KI-generert innhold. Selskapene er forpliktet til å rapportere på tiltak mot desinformasjon i det indre markedet. Medietilsynets vurdering er at selskapene rapporterer om omfattende tiltak mot desinformasjon og uønsket valgpåvirkning, og at det er god rapportering om oppfølging av brukervilkår og betalt forsterkning av politisk innhold. 

– Det som er svakt, er hvordan plattformene rapporterer om tiltak for å begrense risikoen ved egen algoritmebruk. Dette kan tyde på at de globale aktørene ikke i tilstrekkelig grad tar innover seg at anbefalingsalgoritmene kan forsterke eksponering både for desinformasjon og skadelig innhold, sier Velsand 

Mangler i Metas rapportering  

Rapportene er gjennomgående bedre enn i forrige runde, men kvaliteten på dataene varierer, og det er fortsatt betydelige mangler, ifølge Medietilsynet. Meta, selskapet bak Facebook og Instagram, leverer ikke informasjon om tiltak i Norge. Dette reagerer kultur- og likestillingsminister Lubna Jaffery på. 

– Meta er den klart største tilbyderen av sosiale medier i Norge, som nær sagt alle har et forhold til, og som er en viktig arena for den demokratiske samtalen. Med en så dominerende posisjon må vi forvente at Meta etterlever bransjenormen og rapporterer norske tall. Det holder ikke mål at de ikke etterlever bransjenormen, og jeg forventer at de skjerper seg, sier Jaffery.  

300 000 innlegg fjernet på grunn av brudd på avtalevilkår om desinformasjon 

Rapportene fra plattformene viser at de fjernet 300 000 innlegg i det indre markedet for brudd på avtalevilkårene om desinformasjon siste halvår 2023.  Enkelte plattformer rapporterer om en dramatisk vekst i antall falske kontoer: 

  • TikTok rapporterer om en økning fra 6 millioner til 93 millioner falske kontoer fra første til andre halvår 2023 i det indre markedet. 165 000 av disse kontoene er norske. 
  • LinkedIn har rapportert om rundt 7 millioner falske kontoer i hvert halvår i 2023. Antall norske kontoer økte fra 88 000 første halvår til over 130 000 andre halvår. 
  • YouTube oppgir å ha fjernet nesten 300 000 falske kanaler siste halvår i 2023, hvorav over 3 700 i Norge.  
  • Meta oppgir å ha fjernet 1,5 milliarder falske Facebook-kontoer globalt siste halvår i 2023, men har ikke oppgitt hvor mange norske kontoer som er fjernet.   

Se flere nøkkeltall i Medietilsynets visualisering av rapportene

Regulering og strategi 

Etter at forordningen for digitale tjenester, DSA, ble innlemmet i EUs regelverk tidligere i år, har de globale plattformene fått større ansvar for hva som formidles i deres kanaler, og det er krav om at de deler data med forskere. DSA blir også en del av norsk lovverk. 

– Det er viktig at norske myndigheter utnytter mulighetene i DSA, og sørger for en effektiv håndheving. En norsk DSA-koordinator skal arbeide tett med andre lands koordinatorer og Europakommisjonen, sier Velsand. 

I Norge har regjeringen dessuten startet arbeidet med en strategi for å styrke befolkningens motstandskraft mot desinformasjon, som skal være klar neste år. 

Kort om bransjenormen mot desinformasjon:  

Bransjenormen mot desinformasjon (Code of Practice on Disinformation) er en frivillig ordning for å begrense spredningen av desinformasjon.  

Flere av de største sosiale medieplattformene har signert, og har dermed forpliktet seg til å rapportere på tiltak hvert halvår. Tiltakene vurderes opp mot forpliktelser plattformene har gjennom EU-forordningen Digital Services Act (DSA) om å motvirke negative effekter for den offentlige samtalen.  

Medietilsynet vurderer rapportene på oppdrag av Kultur- og likestillingsdepartementet, og har i år lagt vekt på plattformenes tiltak mot uønsket valgpåvirkning og bruk av kunstig generert innhold. 

Medietilsynets vurdering av bransjenormrapportene er tilgjengelig her.  

  Abonner på nyheter (RSS)