=

Saglighed

Vi lover dig ikke det du vil høre.
Vi lover dig det der virker.

Vi er i gang: alt er nyt — intet er færdigt.

Et nyt dansk politisk parti grundlagt på evidens, lighed og langsigtede løsninger. Vi bygger noget ordentligt. Det tager den tid det tager.

kontakt@saglighed.dk
← Forsvar og beredskab 🟡 Forhandlingsmål

Autonome våbensystemer og 'human in the loop'

Effekt 3/5
Omkostning 2/5
Prioritetscore +1
Sideeffekter 🟡

Halvautonome og autonome våbensystemer eksisterer allerede og udvikles hurtigt af alle større militærmagter. Spørgsmålet er ikke om teknologien kan bygges — men om vi vil lade algoritmer beslutte hvem der skal dø. Demokratier bør sætte klare grænser nu, inden kapaciteterne er fuldt deployerede og reguleringsvinduet er lukket. Prisen for dansk lederskab her er lav. Prisen for passivitet kan blive høj.

Hvad evidensen viser

Kildegrundlag: Baseret på Scharre (2018) Army of None, ICRC-analyser af autonom våbenret, FN CCW-processer samt dokumenterede eksempler på deployerede halvautonome systemer.

✓✓ Halvautonome og autonome våbensystemer er allerede deployeret. Israels Harpy-drone kan autonomt identificere og angribe radarsystemer. USA's Phalanx-system kan handle uden menneskelig godkendelse i defensivt skibsforsvar. Sydkoreas Super aEgis II-platform kan operere fuldt autonomt. Graden af menneskelig involvering bevæger sig konsekvent i retning af mindre kontrol. (Scharre, 2018; ICRC, 2021)

✓✓ International humanitær ret kræver menneskelig proportionalitetsvurdering. Krigens love (Genève-konventionerne og tillægsprotokollerne) kræver at hvert enkelt angreb vurderer distinktion (kombattant vs. civil) og proportionalitet. Denne vurdering kræver kontekstuelt dømmekraft der ikke kan reduceres til algoritmer — hverken i dag eller i overskuelig fremtid. (ICRC, 2021; UN Secretary-General, 2023)

Ansvarstomrummet ved autonome angreb er strukturelt, ikke løsbart ved bedre design. Når et autonomt system dræber ulovligt, kan ingen enkelt aktør drages til ansvar: hverken systemet, operatøren, kommandøren eller udvikleren har fuldt ansvar. Det er ikke en ingeniørfejl — det er iboende i autonomi. (Scharre, 2018; Human Rights Watch & IHRC, 2012)

Kapløbsdynamikken er reel og selvforstærkende. Frygten for at tabe til en modstander der ikke begrænser sig, driver en spiral mod stadig mere autonome systemer. Historisk er denne dynamik kun brudt af bindende internationale aftaler — som det skete med kemiske og biologiske våben. (Scharre, 2018; UN GGE CCW, 2024)

~ Det optimale reguleringsformat er omdiskuteret. Der er faglig enighed om at menneskelig kontrol er nødvendig, men uenighed om hvad "reel kontrol" kræver i praksis — og om et totalt forbud er mere effektivt end regulering af specifikke kapabiliteter. (UN CCW GGE-forhandlinger, 2014–2024)


Afvejninger

⚖ Autonome defensive systemer (fx missilforsvar og mineoprydning) har lavere etisk pris end offensive. Et absolutistisk forbud kan begrænse legitime defensive kapabiliteter. Saglighed prioriterer princippet om menneskelig kontrol ved letale og offensive beslutninger — ikke ved alle former for automatisering i forsvar.

🟡 Et dansk/europæisk krav om "human in the loop" sætter standarder som alliancepartnere ikke nødvendigvis deler. Det kræver aktiv diplomati i NATO og EU for at undgå at Danmarks position blot er symbolsk. Risikoen er lav; vinduet for at sætte standarden er tidsbegrænset.


Hvad Saglighed gør

Nu:

  • Beslutninger om at anvende dødelig magt træffes altid af et ansvarligt menneske med reel mulighed for at afvise — aldrig af et autonomt system alene
  • Danmark vedtager dette som operationelt princip for eget forsvar og kommunikerer det aktivt til NATO

Denne valgperiode:

  • Danmark arbejder aktivt for at "human in the loop" vedtages som ufravigelig standard for demokratiske landes brug af AI i forsvar — i NATO og EU
  • Danmark bruger sin stemme aktivt i FN's Konvention om Visse Konventionelle Våben (CCW) og bidrager til at bygge koalitioner for bindende regulering

Næste generation:

  • Bindende internationale aftaler om autonome våbensystemer — på linje med konventionerne om kemiske og biologiske våben

Kilder

  1. Scharre, P. (2018). Army of None: Autonomous Weapons and the Future of War. W. W. Norton & Company.
  2. ICRC (2021). Autonomous Weapon Systems and IHL: A Guide to the Issues. International Committee of the Red Cross. https://www.icrc.org/en/document/autonomous-weapons-and-ihl-guide-issues
  3. Human Rights Watch & IHRC (2012). Losing Humanity: The Case Against Killer Robots. https://www.hrw.org/report/2012/11/19/losing-humanity/case-against-killer-robots
  4. UN Secretary-General (2023). Our Common Agenda — Policy Brief 5: A New Agenda for Peace. United Nations. https://www.un.org/sites/un2.un.org/files/our-common-agenda-policy-brief-new-agenda-for-peace-en.pdf
  5. UN Group of Governmental Experts on LAWS (CCW) (2024). Report of the 2024 session. United Nations. https://www.un.org/disarmament/the-convention-on-certain-conventional-weapons/

Saglighed = Fakta · Lighed · Fremtid · saglighed.dk

Enig? Følg med — vi fortæller dig hvornår vi leverer.

← Tilbage til Forsvar og beredskab