=

Saglighed

Vi lover dig ikke det du vil høre.
Vi lover dig det der virker.

Vi er i gang: alt er nyt — intet er færdigt.

Et nyt dansk politisk parti grundlagt på evidens, lighed og langsigtede løsninger. Vi bygger noget ordentligt. Det tager den tid det tager.

kontakt@saglighed.dk
= Evidensark

Automatiserede velfærdsafgørelser

Algoritmer i det offentlige velfærdssystem risikerer at optimere på afvisninger frem for borgernes velfærd — og fejlene retter sig ikke selv.

Hvad evidensen viser

Kildegrundlag: Baseret på to empiriske monografier med feltforskning i automatiserede amerikanske velfærdssystemer, juridisk analyse af EU og dansk regulering, samt dansk kortlægning af automatiserede afgørelser i kommunal forvaltning.

✓✓ GDPR artikel 22 giver ret til ikke at være underlagt rent automatiserede afgørelser — men retten håndhæves svagt. Borgere har allerede en EU-retlig beskyttelse mod automatiserede afgørelser med "retlig virkning eller tilsvarende væsentlig påvirkning." Forskning dokumenterer at offentlige og private aktører systematisk omgår forpligtelsen ved at konstruere systemerne som formelt "rådgivende" — selv når systemets output i praksis er afgørende. (Pavlidis, 2024)

Automatiserede velfærdssystemer forøger risikoen for, at fejl industrialiseres og ikke opdages. Virginia Eubanks (2018) dokumenterer systematisk at automatiserede afgørelsesstøttesystemer i social- og velfærdsforvaltning producerer fejl i stor skala — og at fejlene ikke korrigeres, fordi de ramte borgere mangler ressourcer til at klage, og systemerne er uigennemsigtige for dem der administrerer dem. Uafhængig, proaktiv revision er den eneste mekanisme der bryder dette mønster. (Eubanks, 2018)

Indirekte proxy-diskrimination er systematisk svær at opdage og anfægte. Systemer der bruger tilsyneladende neutrale variable — postnummer, familiestruktur, kontakthistorik med det offentlige — som proxy for risiko reproducerer socioøkonomisk og etnisk ulighed, fordi disse variable korrelerer med beskyttede kategorier. Formelle non-diskriminationskrav er ikke tilstrækkelige uden aktiv test for proxy-effekter. (Barocas & Selbst, 2016; O'Neil, 2016)

~ Det er omtvistet i hvilken grad eksisterende dansk lovgivning er tilstrækkelig. Forvaltningslovens § 24 kræver begrundelse for afgørelser, og GDPR artikel 22 giver beskyttelse mod ren automatisering. Men Digitaliseringsstyrelsen (2021) dokumenterer at mange kommunale systemer opererer i en gråzone: systemet producerer et output der i praksis bestemmer afgørelsen, men formelt betegnes som en støtte til sagsbehandlerens skøn. (Digitaliseringsstyrelsen, 2021)

~ Velfærdsteknologi kan forbedre borgernes situation — men kun ved de rette typer og med tilstrækkelig implementering. Forskning i nordisk kontekst finder at interaktive teknologier er positivt forbundet med borgertrivsel, mens dokumentationssystemer og overvågningsteknologier kan have negative effekter. Det centrale er ikke teknologien i sig selv, men hvad den optimerer på. (Naseer & Dellve, 2025)


Hvad Saglighed gør

Formål Vi vil sikre at automatisering i den offentlige velfærd forbedrer borgernes situation — og at fejlende systemer opdages og korrigeres, ikke fortsat skaleres.

Vores anbefaling

  • Kortlæg alle kommunale og statslige systemer der reelt producerer eller forbereder afgørelser om borgere, og publicér oversigten (Umiddelbart handlekraft)
  • Håndhæv eksisterende GDPR artikel 22-rettigheder aktivt — det kræver ikke ny lovgivning (Umiddelbart handlekraft)
  • Lovfæst krav om proaktiv, uafhængig revision af offentlige AI-systemer i kritiske velfærdsfunktioner — ikke kun reaktion på klager (Forhandlingsmål)
  • Krav om at frigjorte ressourcer fra velfærdsteknologi går til borgerkontakt og kerneopgaver, ikke kun til besparelser (Forhandlingsmål)

⚖ Det er et værdivalg at prioritere retssikkerhed og menneskelig kontrol over administrativ effektivitet. Vi mener at konsekvenserne af fejlende automatiserede afgørelser — afvisning af ydelser, fejlagtig anbringelse, uberettiget mistænkeliggørelse — er for store til at efterlade til systemer uden reel menneskelig kontrol og proaktiv revision.

→ Se kapitel 9 — AI og teknologi i programmet


Kilder

  1. Eubanks, V. (2018). Automating Inequality — How High-Tech Tools Profile, Police, and Punish the Poor. St. Martin's Press.
  2. O'Neil, C. (2016). Weapons of Math Destruction — How Big Data Increases Inequality and Threatens Democracy. Crown Publishers.
  3. Pavlidis, G. (2024). Unlocking the black box: analysing the EU artificial intelligence act's framework for explainability in AI. Law, Innovation and Technology, 16(1), 293–308. https://doi.org/10.1080/17579961.2024.2313795
  4. Barocas, S. & Selbst, A.D. (2016). Big Data's Disparate Impact. California Law Review, 104, 671–732.
  5. Digitaliseringsstyrelsen (2021). Automatiserede afgørelser i den offentlige sektor — kortlægning og anbefalinger. https://www.digst.dk
  6. Naseer, M. & Dellve, L. (2025). Assessing the Use of Welfare Technology in Social Care for Older Adults. JMIR Nursing, 8, e65641. https://doi.org/10.2196/65641

Saglighed = Fakta · Lighed · Fremtid · saglighed.dk

Mere evidens. Færre løfter.