=

Saglighed

Vi lover dig ikke det du vil høre.
Vi lover dig det der virker.

Vi er i gang: alt er nyt — intet er færdigt.

Et nyt dansk politisk parti grundlagt på evidens, lighed og langsigtede løsninger. Vi bygger noget ordentligt. Det tager den tid det tager.

kontakt@saglighed.dk
← AI og teknologi 🟡 Forhandlingsmål

Ret til forklaring og menneskelig prøvelse af AI-afgørelser

Effekt 3/5
Omkostning 2/5
Prioritetscore +1
Sideeffekter 🟢

Borgere der berøres af AI-baserede afgørelser i det offentlige — om ydelser, opholdstilladelse, anbringelse eller straf — har ret til en forklaring de kan forstå, og ret til at kræve menneskelig genbehandling. Ansvaret for systemfejl placeres klart. Det kræver ingen ny teknologi — det kræver lovgivning der indfrier det løfte EU's AI-forordning og GDPR allerede indeholder, men som ikke håndhæves systematisk i Danmark. Omkostningen er primært administrativ. Effekten på borgernes retssikkerhed er betydelig.

Hvad evidensen viser

✓✓ EU's AI-forordning (2024) kræver transparens og menneskelig kontrol i højrisiko-AI-systemer. EU AI Act artikel 13 kræver at højrisiko-AI-systemer er "tilstrækkeligt transparente" til at operatørerne kan fortolke og bruge output korrekt. Artikel 14 kræver menneskelig overvågning. Systemerne bruges i bl.a. kritisk infrastruktur, uddannelse, beskæftigelse, offentlige ydelser og retshåndhævelse. (Ebers, 2024; EU AI Act 2024/1689)

GDPR artikel 22 giver allerede en ret til ikke at være underlagt rent automatiserede afgørelser — men retten håndhæves svagt i praksis. Retten gælder afgørelser med "retlig virkning" eller "tilsvarende væsentlig påvirkning". Det er dokumenteret at offentlige og private aktører systematisk undgår forpligtelsen ved at konstruere systemer som formelt rådgivende. (Pavlidis, 2024)

Algoritmiske systemer reproducerer og forstærker historisk diskrimination. Det er veldokumenteret at AI-systemer trænet på historiske data indkoder eksisterende bias — og at dette er særligt skadeligt i offentlig myndighedsudøvelse, ansættelse og kreditgivning. Manglen på transparens gør diskriminationen sværere at opdage og anfægte. (Ebers, 2024)

Algoritmiske systemer uden menneskelig prøvelse skaber feedback-blindhed — fejl retter sig ikke selv. Cathy O'Neil (2016) og Virginia Eubanks (2018) dokumenterer systematisk at automatiserede afgørelsessystemer i det offentlige reproducerer og forstærker fejl over tid: de ramte borgere mangler ressourcer til at klage, modellerne er uigennemsigtige og korrigerer ikke sig selv. Kun proaktiv, uafhængig revision bryder dette mønster. (O'Neil, 2016; Eubanks, 2018)

Indirekte proxy-diskrimination er sværere at opdage end direkte diskrimination — og mere udbredt. AI-systemer diskriminerer sjældent eksplicit på beskyttede kategorier, men bruger tilsyneladende neutrale variable (postnummer, uddannelsesvalg, søgemønstre) der korrelerer stærkt med race, køn og socioøkonomisk baggrund. Det betyder at formelle non-diskriminationskrav ikke er tilstrækkelige — aktiv test for proxy-diskrimination er nødvendig. (O'Neil, 2016; Barocas & Selbst, 2016)

~ Det er omtvistet, om forklaringspligten er teknisk realiserbar for alle AI-systemer. Der er en faglig diskussion om at kravet om forklarbarhed (XAI) er sværere at opfylde for komplekse neurale netværk end for regelbaserede systemer — og at der kan opstå en afvejning mellem nøjagtighed og forklarbarhed. EU AI Act afspejler dette ved at kræve "tilstrækkelig" transparens frem for fuld forklarbarhed. (Ebers, 2024)


Afvejninger

⚖ Kravet om menneskelig prøvelse af alle AI-afgørelser vil øge den administrative byrde i det offentlige — særligt hvis mange borgere benytter sig af retten. Vi prioriterer retssikkerhed over administrativ effektivitet i afgørelser der angår borgernes grundlæggende rettigheder. I sager med lav retlig virkning kan en mere begrænset forklaring være tilstrækkelig.

🟢 Ingen kendte væsentlige negative sideeffekter. Tværtimod: øget transparens reducerer risikoen for systemfejl, der opdages for sent — og er dermed en investering i systemtillid.


Hvad Saglighed gør

Nu:

  • Kortlæg hvilke offentlige AI-systemer der i dag reelt træffer eller forbereder afgørelser om borgere, og publicér oversigten
  • Håndhæv eksisterende GDPR artikel 22-rettigheder aktivt — det kræver ikke ny lovgivning, kun vilje

Denne valgperiode:

  • Lovfæst ret til forklaring på AI-baserede afgørelser i dansk forvaltningslov — i sprog borgeren kan forstå
  • Krav om menneskelig prøvelsesinstans med reel kompetence til at omgøre afgørelsen i alle sager om opholdstilladelse, offentlige ydelser, anbringelse og straffesager
  • Klar ansvarsplacering: myndighed og/eller leverandør hæfter for dokumenterede systemfejl

Næste generation:

  • Uafhængigt AI-revisionskontor med mandat til proaktivt at teste offentlige AI-systemer for bias og fejlrater — ikke kun reagere på klager

Kilder

  1. O'Neil, C. (2016). Weapons of Math Destruction — How Big Data Increases Inequality and Threatens Democracy. Crown Publishers. (Begrebsramme for WMD og feedback-blindhed i automatiserede systemer)
  2. Eubanks, V. (2018). Automating Inequality — How High-Tech Tools Profile, Police, and Punish the Poor. St. Martin's Press. (Empirisk dokumentation af velfærdssystemer der optimerer på afvisninger frem for borgernes velfærd)
  3. Barocas, S. & Selbst, A.D. (2016). Big Data's Disparate Impact. California Law Review, 104, 671–732. (Juridisk ramme for proxy-diskrimination)
  4. EU AI Act — Forordning (EU) 2024/1689 om kunstig intelligens, artikel 13 (transparens) og artikel 14 (menneskelig overvågning). https://eur-lex.europa.eu/legal-content/DA/TXT/?uri=CELEX:32024R1689
  5. Ebers, M. (2024). Truly Risk-based Regulation of Artificial Intelligence: How to Implement the EU's AI Act. European Journal of Risk Regulation, 16(2), 684–703. https://doi.org/10.1017/err.2024.78
  6. Pavlidis, G. (2024). Unlocking the black box: analysing the EU artificial intelligence act's framework for explainability in AI. Law, Innovation and Technology, 16(1), 293–308. https://doi.org/10.1080/17579961.2024.2313795
  7. Europa-Parlamentets og Rådets forordning (EU) 2016/679 (GDPR), artikel 22: Automatiske individuelle afgørelser, herunder profilering.

Saglighed = Fakta · Lighed · Fremtid · saglighed.dk

Enig? Følg med — vi fortæller dig hvornår vi leverer.

← Tilbage til AI og teknologi