Ret til forklaring og menneskelig prøvelse af AI-afgørelser
Borgere der berøres af AI-baserede afgørelser i det offentlige — om ydelser, opholdstilladelse, anbringelse eller straf — har ret til en forklaring de kan forstå, og ret til at kræve menneskelig genbehandling. Ansvaret for systemfejl placeres klart. Det kræver ingen ny teknologi — det kræver lovgivning der indfrier det løfte EU's AI-forordning og GDPR allerede indeholder, men som ikke håndhæves systematisk i Danmark. Omkostningen er primært administrativ. Effekten på borgernes retssikkerhed er betydelig.
Hvad evidensen viser
✓✓ EU's AI-forordning (2024) kræver transparens og menneskelig kontrol i højrisiko-AI-systemer. EU AI Act artikel 13 kræver at højrisiko-AI-systemer er "tilstrækkeligt transparente" til at operatørerne kan fortolke og bruge output korrekt. Artikel 14 kræver menneskelig overvågning. Systemerne bruges i bl.a. kritisk infrastruktur, uddannelse, beskæftigelse, offentlige ydelser og retshåndhævelse. (Ebers, 2024; EU AI Act 2024/1689)
✓ GDPR artikel 22 giver allerede en ret til ikke at være underlagt rent automatiserede afgørelser — men retten håndhæves svagt i praksis. Retten gælder afgørelser med "retlig virkning" eller "tilsvarende væsentlig påvirkning". Det er dokumenteret at offentlige og private aktører systematisk undgår forpligtelsen ved at konstruere systemer som formelt rådgivende. (Pavlidis, 2024)
✓ Algoritmiske systemer reproducerer og forstærker historisk diskrimination. Det er veldokumenteret at AI-systemer trænet på historiske data indkoder eksisterende bias — og at dette er særligt skadeligt i offentlig myndighedsudøvelse, ansættelse og kreditgivning. Manglen på transparens gør diskriminationen sværere at opdage og anfægte. (Ebers, 2024)
✓ Algoritmiske systemer uden menneskelig prøvelse skaber feedback-blindhed — fejl retter sig ikke selv. Cathy O'Neil (2016) og Virginia Eubanks (2018) dokumenterer systematisk at automatiserede afgørelsessystemer i det offentlige reproducerer og forstærker fejl over tid: de ramte borgere mangler ressourcer til at klage, modellerne er uigennemsigtige og korrigerer ikke sig selv. Kun proaktiv, uafhængig revision bryder dette mønster. (O'Neil, 2016; Eubanks, 2018)
✓ Indirekte proxy-diskrimination er sværere at opdage end direkte diskrimination — og mere udbredt. AI-systemer diskriminerer sjældent eksplicit på beskyttede kategorier, men bruger tilsyneladende neutrale variable (postnummer, uddannelsesvalg, søgemønstre) der korrelerer stærkt med race, køn og socioøkonomisk baggrund. Det betyder at formelle non-diskriminationskrav ikke er tilstrækkelige — aktiv test for proxy-diskrimination er nødvendig. (O'Neil, 2016; Barocas & Selbst, 2016)
~ Det er omtvistet, om forklaringspligten er teknisk realiserbar for alle AI-systemer. Der er en faglig diskussion om at kravet om forklarbarhed (XAI) er sværere at opfylde for komplekse neurale netværk end for regelbaserede systemer — og at der kan opstå en afvejning mellem nøjagtighed og forklarbarhed. EU AI Act afspejler dette ved at kræve "tilstrækkelig" transparens frem for fuld forklarbarhed. (Ebers, 2024)
Afvejninger
⚖ Kravet om menneskelig prøvelse af alle AI-afgørelser vil øge den administrative byrde i det offentlige — særligt hvis mange borgere benytter sig af retten. Vi prioriterer retssikkerhed over administrativ effektivitet i afgørelser der angår borgernes grundlæggende rettigheder. I sager med lav retlig virkning kan en mere begrænset forklaring være tilstrækkelig.
🟢 Ingen kendte væsentlige negative sideeffekter. Tværtimod: øget transparens reducerer risikoen for systemfejl, der opdages for sent — og er dermed en investering i systemtillid.
Hvad Saglighed gør
Nu:
- Kortlæg hvilke offentlige AI-systemer der i dag reelt træffer eller forbereder afgørelser om borgere, og publicér oversigten
- Håndhæv eksisterende GDPR artikel 22-rettigheder aktivt — det kræver ikke ny lovgivning, kun vilje
Denne valgperiode:
- Lovfæst ret til forklaring på AI-baserede afgørelser i dansk forvaltningslov — i sprog borgeren kan forstå
- Krav om menneskelig prøvelsesinstans med reel kompetence til at omgøre afgørelsen i alle sager om opholdstilladelse, offentlige ydelser, anbringelse og straffesager
- Klar ansvarsplacering: myndighed og/eller leverandør hæfter for dokumenterede systemfejl
Næste generation:
- Uafhængigt AI-revisionskontor med mandat til proaktivt at teste offentlige AI-systemer for bias og fejlrater — ikke kun reagere på klager
Kilder
- O'Neil, C. (2016). Weapons of Math Destruction — How Big Data Increases Inequality and Threatens Democracy. Crown Publishers. (Begrebsramme for WMD og feedback-blindhed i automatiserede systemer)
- Eubanks, V. (2018). Automating Inequality — How High-Tech Tools Profile, Police, and Punish the Poor. St. Martin's Press. (Empirisk dokumentation af velfærdssystemer der optimerer på afvisninger frem for borgernes velfærd)
- Barocas, S. & Selbst, A.D. (2016). Big Data's Disparate Impact. California Law Review, 104, 671–732. (Juridisk ramme for proxy-diskrimination)
- EU AI Act — Forordning (EU) 2024/1689 om kunstig intelligens, artikel 13 (transparens) og artikel 14 (menneskelig overvågning). https://eur-lex.europa.eu/legal-content/DA/TXT/?uri=CELEX:32024R1689
- Ebers, M. (2024). Truly Risk-based Regulation of Artificial Intelligence: How to Implement the EU's AI Act. European Journal of Risk Regulation, 16(2), 684–703. https://doi.org/10.1017/err.2024.78
- Pavlidis, G. (2024). Unlocking the black box: analysing the EU artificial intelligence act's framework for explainability in AI. Law, Innovation and Technology, 16(1), 293–308. https://doi.org/10.1080/17579961.2024.2313795
- Europa-Parlamentets og Rådets forordning (EU) 2016/679 (GDPR), artikel 22: Automatiske individuelle afgørelser, herunder profilering.
Saglighed = Fakta · Lighed · Fremtid · saglighed.dk
Enig? Følg med — vi fortæller dig hvornår vi leverer.