=

Saglighed

Vi lover dig ikke det du vil høre.
Vi lover dig det der virker.

Vi er i gang: alt er nyt — intet er færdigt.

Et nyt dansk politisk parti grundlagt på evidens, lighed og langsigtede løsninger. Vi bygger noget ordentligt. Det tager den tid det tager.

kontakt@saglighed.dk
= Kapitel 9

AI og teknologi

Gevinsten fra automatisering tilhører fællesskabet.

← Tilbage til programmet

Kunstig intelligens er ikke en fremtidsteknologi. Den er her nu — og den omformer allerede arbejdsmarkedet, sundhedsvæsenet, uddannelsessystemet og den offentlige sektor på måder der accelererer.

Det er ikke en trussel i sig selv. Teknologi har altid omformet arbejde — og hver gang er der opstået ny velstand. Men hver gang er der også opstået tabere. Og det er der, ansvaret ligger.

Gevinsten fra automatisering må ikke automatisk tilfalde dem der ejer teknologien. Den tilhører fællesskabet.

Se konkrete løsninger ↓

AI og automatisering — hvem ejer gevinsten?

AI er anderledes fra tidligere teknologiske bølger på ét afgørende punkt: den erstatter ikke primært rutinepræget manuelt arbejde. Den erstatter i stigende grad kognitivt arbejde — analyse, tekstproduktion, juridisk research, regnskab, kundeservice, dele af lægefagets diagnostik. Det betyder at det ikke primært er ufaglærte der rammes denne gang. Og det sker nu — ikke om 20 år. =

Udfordringen

  • Kognitiv displacement: AI erstatter i stigende grad kognitivt arbejde — ikke rutinepræget manuelt arbejde som ved tidligere automatiseringsbølger. Analytikere, jurister, revisorer og dele af sundhedsfagene er eksponerede.
  • Gevinsten privatiseres: Produktivitetsstigningen tilfalder primært ejerne af teknologien. Der er ingen automatik der fordeler gevinsten til de ansatte eller til fællesskabet.
  • Manglende omstillingssikkerhed: Det eksisterende system er designet til at håndtere jobskifte — ikke strukturel kompetenceobsolescens for store grupper af arbejdstagere på kort tid.
  • Ingen samlet dansk plan: Der mangler en strategi for hvordan Danmark høster AI-gevinsterne og beskytter dem der rammes af omstillingen.

Det gør vi

Automatiseringsbidrag til fællesskabet: =

  • Kapitalinvesteringer i automatisering beskattes i dag lavere end lønarbejde — det er et aktivt tilskud til at erstatte mennesker med maskiner. Automatiseringsbidraget korrigerer denne skævhed.
  • Virksomheder der erstatter lønmodtagere med AI og automation betaler et bidrag til en national kompetencefond
  • Fonden finansierer omstillingsforløb, efteruddannelse og indkomststøtte i omstillingsperioden

Arbejdstagerrettigheder i den nye økonomi:

  • Ret til at vide, når man overvåges eller evalueres af algoritmer på arbejdspladsen
  • Ret til menneskelig gennemgang af AI-baserede beslutninger der angår ansættelse, afskedigelse eller karriereudvikling
  • Overenskomstsystemets aktive rolle i at forhandle vilkårene for AI-implementering på den enkelte arbejdsplads

Dansk og europæisk regulering:

  • Danmark arbejder aktivt for implementering og styrkelse af EU's AI-forordning — med særligt fokus på gennemsigtighed, ansvar og beskyttelse af grundlæggende rettigheder
  • Krav om konsekvensanalyse ved implementering af AI i kritiske sektorer: sundhed, retsvæsen, uddannelse og offentlig forvaltning
  • Forbud mod AI-systemer der systematisk diskriminerer på baggrund af køn, etnicitet eller socioøkonomisk status — med reel håndhævelse

Europæisk AI-suverænitet:

  • De mest magtfulde AI-systemer kontrolleres i dag af en håndfuld selskaber — primært amerikanske. Det er ikke en naturlov. Danmark arbejder aktivt for europæiske AI-alternativer og fælles europæisk datainfrastruktur som reelt alternativ til afhængighed af få private platforme
  • Krav om åbenhed om ejerskab og styring af AI-systemer der præger borgernes informationsmiljø og offentlige forvaltning
  • Offentlige myndigheder og kritisk infrastruktur anvender som udgangspunkt AI-systemer hvor der er reel indsigt i data, træning og styring — ikke blot i slutresultatet

→ Se kapitel 6 — Arbejdsmarked og velfærd for omstillingssikkerhed og ret til efteruddannelse.


Offentlig AI og velfærdsteknologi

Staten skal gå foran med ansvarlig AI-implementering. Det er ikke nok at regulere det private — det offentlige skal selv demonstrere hvad ansvarlig brug indebærer. Det gælder AI i sagsbehandling og forvaltning, og det gælder velfærdsteknologi i ældrepleje og sundhed: teknologien kan aflaste, frigive tid og forbedre omsorg — men kun hvis den implementeres med personalet og med borgeren i centrum.

Udfordringen

  • Manglende åbenhed: Borgere ved sjældent hvilke AI-systemer der bruges om dem, med hvilken fejlrate — og de har ingen systematisk ret til en forklaring.
  • Velfærdsteknologi som besparelsesredskab: Potentialet i velfærdsteknologi er reelt, men det bruges i praksis for ofte til at begrunde besparelser frem for at forbedre kvalitet og frigive tid til borgerkontakt.
  • Implementering hen over personalet: Sundhedsteknologi der rulles ud uden at involvere dem der bruger den dagligt, virker dårligere og skaber forudsigelig modstand.

Det gør vi

Åbenhed og uafhængig revision:

  • Åbenhed om hvilke AI-systemer der bruges, til hvad, og med hvilke fejlrater
  • Offentlige AI-systemer i kritiske funktioner revideres af uafhængige organer
  • Borgere der berøres af AI-baserede afgørelser har ret til en forklaring de kan forstå

AI som adgang til loven — for alle:

  • I dag kræver korrekt efterlevelse af lovgivningen professionel rådgivning — revisor, advokat, juridisk konsulent. Det er adgang de færreste har råd til. En statsautoriseret AI-tolk der kan svare borgere om skatteforhold, sociale ydelser og retsregler er en reel demokratisk løsning på et reelt ligehedsproblem
  • Vi vil indføre en god-tro-fritagelse: borgere der handler i overensstemmelse med autoriseret offentlig AI-vejledning, kan ikke straffes for fejl i den vejledning. Staten bærer ansvaret for rigtigheden af den rådgivning den stiller til rådighed =
  • Langsigtet investering i maskinlæsbar lovgivning: love skrives med definerede begreber og struktureret logik der gør præcis AI-fortolkning mulig

Velfærdsteknologi med menneskelig kerne:

  • National strategi for velfærdsteknologi med klare kriterier: aflastning frem for erstatning af menneskelig kontakt
  • Frigjorte ressourcer fra velfærdsteknologi går til borgerkontakt og kerneopgaver — ikke kun til besparelser
  • Al offentlig velfærdsteknologi evalueres på effekt for borgernes trivsel og personalets arbejdsmiljø — ikke kun på driftsøkonomi

Implementering der virker:

  • Investeringspulje til kommuner der vil afprøve og implementere dokumenteret effektiv velfærdsteknologi
  • Krav om at implementering sker i samarbejde med det personale der skal bruge teknologien — ikke hen over dem

Algoritmisk magt og borgernes rettigheder

Algoritmer træffer allerede beslutninger om din velfærdsydelse, din kreditvurdering og om du kan blive i Danmark. Det er ikke hypotetiske scenarier — det sker nu. Vores svar er klart: teknologi kan informere og støtte beslutninger. Den kan ikke træffe dem, når de angår menneskers grundlæggende rettigheder og livsvilkår. Der skal altid være en ansvarlig menneskelig instans med reel mulighed for at forstå, vurdere og omgøre. =

Udfordringen

  • Sorte bokse i myndighederne: Automatiserede systemer forbereder eller træffer afgørelser om borgere, uden at borgeren kan forstå logikken eller effektivt anfægte den.
  • Ansvarstomt rum: Når et system fejler, er det uklart hvem der har ansvaret — systemet, myndigheden, leverandøren eller lovgiveren.
  • Algoritmisk diskrimination: AI-systemer trænet på historiske data kan reproducere og forstærke uligheder baseret på køn, etnicitet og socioøkonomisk baggrund.

Det gør vi

Ret til forklaring og menneskelig prøvelse: =

  • Borgere der berøres af AI-baserede afgørelser i det offentlige har ret til en forklaring de kan forstå og handle på
  • Afgørelser af væsentlig betydning for borgernes rettigheder og livsvilkår kan altid kræves genbehandlet af en menneskelig instans med reel kompetence til at omgøre dem
  • Ansvaret for AI-fejl placeres klart — hos myndighed, leverandør eller begge — ikke i et ansvarstomt rum

Forbud mod automatiserede afgørelser om grundlæggende rettigheder:

  • AI bruges som beslutningsstøtte — ikke som selvstændig beslutningstager — i sager om opholdstilladelse, anbringelse, offentlige ydelser og straffesager
  • Krav om dokumenteret lighed på tværs af køn, etnicitet og socioøkonomisk status ved AI-systemer der bruges til at evaluere borgere — herunder test for indirekte proxy-diskrimination via tilsyneladende neutrale variable som postnummer og jobhistorik

Måltal og ansvarlighed

Mål Baseline (2026) Sagligheds ambition (2035)
AI-systemer i det offentlige med uafhængig revision Minimal 100% af kritiske systemer
Borgere der modtager forklaring på AI-baserede afgørelser Ikke systematisk 100%
Offentlige velfærdsteknologiprojekter med dokumenteret effektmåling Lav 100%

Teknologi er et redskab — ikke et mål

Teknologien giver os muligheder vi ikke har haft før. AI kan diagnosticere hurtigere. Robotter kan aflaste. Digitale platforme kan forbinde og effektivisere. Men teknologi er aldrig et mål i sig selv. Målet er et samfund der fungerer for alle mennesker — også dem hvis job forsvinder, og dem der ikke selv kan navigere den teknologiske omstilling. Det ansvar kan vi ikke automatisere os fra.

Enig? Følg med — vi fortæller dig hvornår vi leverer.