Sociale mediers algoritmer forstærker aktivt had og desinformation — ikke som teknisk fejl, men som dokumenteret forretningsmæssig konsekvens af engagement-optimering.
Hvad evidensen viser
Kildegrundlag: Peer-reviewede studier (PNAS, Science), interne platformsdokumenter (Frances Haugen / The Facebook Papers, 2021), EU DSA-impact assessments og journalist-undersøgelser.
✓✓ Moralsk og følelsesladede sprog spredes markant hurtigere på sociale medier. En meta-analyse på tværs af 27 studier og 5 laboratorier viser at ophidselsesord øger sandsynligheden for videredeling med 13–20% per ord. Effekten er robust og gælder på tværs af platforme og emner. (Brady et al., PNAS 2017; Brady et al., PNAS Nexus 2025)
✓✓ Platformene ved det — og har valgt det. Interne Facebook-dokumenter offentliggjort af whistleblower Frances Haugen (2021) dokumenterer at virksomheden internt kendte til algoritmernes bidrag til had, polarisering og desinformation, og at forslag om at ændre algoritmen gentagne gange blev nedprioriteret af hensyn til engagement-metrics og annonceomsætning. Det er ikke teknisk naivitet — det er dokumenteret forretningsmæssigt valg. (The Facebook Papers, WSJ/consortium 2021; US Senate Commerce Committee hearing, oktober 2021)
✓ Anbefalingsalgoritmer kan drive gradvis radikalisering. Analyser af YouTubes anbefalingssystem finder at brugere der starter med moderate politiske videoer konsekvent anbefales progressivt mere ekstremt indhold. Effekten er betinget af udgangspunkt og brugeradfærd — men retningen er konsistent. (Ribeiro et al., WebSci 2020; Hosseinmardi et al., PNAS 2021)
✓ EU's Digital Services Act (2022) pålægger de 19 største platforme at auditere og reducere algoritmiske systemrisici. Tidlige evalueringer tyder på delvis compliance men betydelige implementeringshuller, særligt hvad angår gennemsigtighed om selve anbefalingslogikken. (EU Kommissionen, DSA Compliance Reports 2024)
~ Størrelsen af den demokratiske skadeseffekt er omdiskuteret. Visse studier finder at algoritmisk ekstreme anbefalinger primært rammer brugere der allerede aktivt opsøger eksplicit partisk indhold — og at "ekkokammer"-effekten er svagere end antaget. Andre studier finder bredere effekter. Princippet er veldokumenteret; skadesomfanget på netop demokratisk deltagelse er metodisk svært at isolere. (Guess et al., Science 2023; Nyhan et al., Nature 2023)
Hvad Saglighed gør
Formål Vi vil sikre at sociale medieplatformes algoritmiske logik ikke systematisk forstærker desinformation, had og politisk ekstremisme på bekostning af demokratisk informationsdannelse. Det er et reguleringsanliggende — ikke et indholdsmoderingsspørgsmål.
Vores anbefaling
- Fuld dansk implementering af EU's DSA med aktiv tilsynsmyndighed og reelle sanktioner (Forhandlingsmål)
- Auditret: uafhængige myndigheder og akkrediterede forskere skal have adgang til at auditere algoritmernes logik og effekt (Forhandlingsmål)
- Krav om mærkning af AI-genereret indhold i redaktionelle og politiske sammenhænge (Forhandlingsmål)
- Støtte til uafhængig europæisk faktakontrolinfrastruktur med armslængde til platforme og stater (Umiddelbar handlekraft)
⚖ Platformsregulering rummer en reel afvejning mod ytringsfrihed. Vi vil regulere algoritmernes arkitektur og incitamenter — ikke afgøre hvad der er sandt eller falsk indhold. Det er en fundamental forskel. Auditret kræver stærke retsgarantier mod politisk misbrug.
→ Se kapitel 13 — Demokrati og sandhed i programmet
Kilder
- Brady, W.J. et al. (2017). "Emotion shapes the diffusion of moralized content in social networks." PNAS, 114(28). doi:10.1073/pnas.1618923114
- Brady, W.J. et al. (2025). "Moral-emotional language on social media." PNAS Nexus. doi:10.1093/pnasnexus/pgaf327
- The Facebook Papers (2021). Internal documents disclosed by Frances Haugen. Consortium of news organisations including WSJ, NYT, The Guardian.
- Ribeiro, M.H. et al. (2020). "Auditing Radicalization Pathways on YouTube." Proceedings of WebSci 2020. doi:10.1145/3394231.3397916
- Hosseinmardi, H. et al. (2021). "Examining the consumption of radical content on YouTube." PNAS, 118(32). doi:10.1073/pnas.2101967118
- Guess, A.M. et al. (2023). "How do social media feed algorithms affect attitudes and behavior in an election campaign?" Science, 381(6656). doi:10.1126/science.abp9364
- Nyhan, B. et al. (2023). "Like-minded sources on Facebook are prevalent but not polarizing." Nature, 620. doi:10.1038/s41586-023-06297-w
- EU Kommissionen (2024). DSA Compliance Assessment Reports. digital-strategy.ec.europa.eu
Saglighed = Fakta · Lighed · Fremtid · saglighed.dk