Den traditionelle reaktion på desinformation er indholdsmoderating: find de falske historier og fjern dem. Det er utilstrækkeligt — ikke fordi det er forkert, men fordi det er for sent og for lidt. Det adresserer symptomerne og ikke sygdommen.
Problemet er arkitekturen. Platformenes algoritmer er ikke neutrale distributionskanaler. De er aktive forstærkere der systematisk belønner det der splitter, ophidser og polariserer. Så længe arkitekturen er engagement-optimeret, vil desinformation have strukturel fordel over faktuel, nuanceret information.
Det er ikke et problem man kan moderere sig ud af. Det er et reguleringsproblem.
EU's Digital Services Act sætter rammerne for de 19 største platforme: de skal nu auditere algoritmernes systemrisici og give forskere dataadgang. Det er et godt udgangspunkt. Men kravene er ikke implementeret med fuld ambition alle steder, og der mangler reelle sanktioner der gør det dyrere at undlade compliance end at efterleve den.
Modstanderne vil sige at regulering af algoritmer er censur. Det er en misforståelse. Vi foreslår ikke at bestemme hvad der er sandt indhold — vi foreslår at platformene ikke systematisk belønner det der er skadeligt. Der er forskel på at forbyde en ytring og at ophøre med at betale bonusen for at sprede den.
Demokratiet kan ikke fungere i et informationsrum der er konstrueret til at forstærke splittelse. Det er ikke et medieteoretisk problem. Det er et strukturelt demokratisk problem — og det har strukturelle løsninger.