Algoritmiske systemer i det offentlige præsenteres som mere effektive og objektive end menneskelige vurderinger. Det er delvist sandt. De er hurtigere. De behandler tusinde sager om minutter. De spørger ikke om man har sovet godt.
Men objektive er de ikke.
Et system der afgør om din kontanthjælp fortsætter, om dine børn bringes i pleje, eller om du prioriteres til en bolig som hjemløs — det system er designet af mennesker med menneskelige antagelser om hvad der tæller som risiko, hvad der tæller som samarbejdsvilje, hvad der tæller som sårbarhed. Antagelserne er ikke forsvundet fordi de er koded ind i en algoritme. De er blot gjort usynlige.
Og dér er det centrale problem: når en embedsmand træffer en forkert afgørelse, kan borgeren se vedkommende i øjnene. Klage. Appellere. Forlange en forklaring. Når et system gør det, er der ingen at stille til ansvar. Systemet kan ikke skammes. Det kan ikke ændre mening fordi det ser dig.
Her er hvad vi ved om algoritmiske afgørelser i det offentlige →
Saglighed mener ikke at algoritmer ikke hører hjemme i den offentlige forvaltning. Teknologi kan frigøre tid, reducere ventetid og aflaste et presset system. Det er reelt.
Men der er en linje vi ikke bør krydse: AI som selvstændig beslutningstager i sager om borgernes grundlæggende rettigheder. Opholdstilladelse. Anbringelse af børn. Offentlige ydelser. Her bruger vi AI som beslutningsstøtte — ikke som dommer.
Og der er to krav der gælder uanset: borgeren skal have en forklaring de kan forstå, og en reel mulighed for at kræve menneskelig genbehandling med en instans der faktisk kan omgøre afgørelsen. Ikke en klageformular der bare sender sagen tilbage til systemet.
Modstanderne vil sige at det gør systemerne langsommere og dyrere. Det er delvist rigtigt. Vi sætter den borgerrettighed højere. Det er et valg — og vi siger det eksplicit.
Det interessante spørgsmål er ikke om vi har råd til reel klagemulighed. Det er om vi har råd til systemer der fejler i stor skala og ikke opdager det.