Det uetiske i at lade være: Derfor skal man turde bruge AI
Det uetiske i at lade være: Derfor skal man turde bruge AI

AI bliver ofte mødt med ét spørgsmål: Hvad kan gå galt?
Men måske er det det forkerte sted at starte.
En rundspørge fra Kommu-nen.dk viser, at 75 ud af 83 kommuner, dvs. over 90 procent, allerede har vedtaget retningslinjer eller politikker for brugen af kunstig intelligens. På papiret er kommunerne altså godt i gang. Rammerne er ved at være på plads.
Men retningslinjer løser ikke i sig selv det grundlæggende spørgsmål: Hvad er det egentlig, vi skylder borgerne, når vi tager - eller undlader at tage - ny teknologi i brug?
For AI er ikke længere kun et spørgsmål om effektivisering og smarte løsninger. Det er rykket ind i kernen af velfærdsstaten: sagsbehandling, borgerkontakt og afgørelser med store konsekvenser for menneskers liv.
Et ensidigt fokus på risiko
Ifølge Bent Dalager, digital vismand i tænketanken ATV’s Digitale Vismandsråd og forfatter til bogen Henry Ford-reglen – Arbejde og etik i en AI-tid, er debatten kørt skævt.
- Etik handler ikke kun om at undgå det forkerte. Den nemmeste måde at undgå at gøre noget ondt er faktisk ikke at gøre noget som helst. Og det er den skæbne, mange AI-løsninger har lidt. Og så er vi slået tilbage til start, siger han.
Pointen er, at den offentlige sektor i høj grad har adopteret en defensiv tilgang: Først og fremmest skal man sikre sig, at man ikke træder forkert.
Det fører til lange diskussioner om databeskyttelse, gennemsigtighed og fejlmarginer. Alt sammen relevant, men også utilstrækkeligt, hvis du spørger Bent Dalager.
For hvis fokus alene er på at minimere risiko, risikerer man at overse den gevinst, teknologien faktisk kan skabe.
Bent Dalager efterlyser derfor et opgør med det, han ser som en snæver forståelse af etik.
- Vi bliver nødt til at stille andre spørgsmål: Hvordan gør vi det gode? Ikke kun hvordan vi undgår det onde, siger han.
I nogle tilfælde er det ikke længere nok at kunne sige nej til AI med henvisning til usikkerhed. Hvis teknologien kan forbedre borgernes situation markant, kan passivitet i sig selv være et etisk problem.
- Når vi undlader at udvikle løsninger, der kan hjælpe mennesker, for eksempel borgere, der har brug for hjælpemidler eller hurtigere sagsbehandling, så svigter vi dem faktisk, siger han.
Især i kommunerne, hvor mange borgere ikke har andre steder at gå hen, bliver spørgsmålet skærpet.
- Hvis mennesker er afhængige af, at vi hjælper dem, og vi har muligheden for at gøre det bedre, så har vi også en etisk forpligtelse.
Men den forpligtelse kræver også retning og konkrete valg, understreger Bent Dalager og kommer med en klar opfordring til kommunerne:
- Mens I taler om AI og holder møder om det, bør I samtidig få sat en tydelig retning: Hvor vil I hen, og hvad er ambitionen? Det handler også om at få defineret nogle etiske spilleregler - hvad er okay, og hvad er ikke? De diskussioner er nødvendige, og de bør gerne tages i dialog med borgerne, så fundamentet bliver bredt forankret.
Han peger samtidig på, at sikkerhed og adgangsstyring skal tænkes ind fra begyndelsen, særligt når generelle AI-værktøjer kobles til store mængder dokumenter og ustrukturerede data.
Problemet rækker imidlertid videre end som så, lyder det fra Bent Dalager.
Nye AI-løsninger bliver ofte vurderet isoleret, uden at man sammenligner med den eksisterende praksis.
- Man laver risikovurderinger af det nye, men man glemmer at vurdere risikoen ved det, man allerede gør, siger han.
Han peger på, at den type afvejning er helt almindelig i andre sektorer, for eksempel i sundhedsvæsenet:
- Et lægemiddel bliver ikke godkendt, fordi det er risikofrit, men fordi det samlet set gør mere gavn end skade, siger han og laver koblingen til, at den samme logik ofte mangler i vurderingen af AI.
Men selv hvis man accepterer præmissen om, at AI kan være en etisk forpligtelse, forsvinder problemerne ikke. Tværtimod.
Ansvarsvakuum og risiko for diskrimination
Ifølge professor Helene Friis Ratner, AI-forsker ved Danmarks Tekniske Universitet og chefforsker i Det Nationale Center for AI i Samfundet (Caisa), står kommunerne over for en udfordring relateret til placering af ansvar og risiko, som hun kalder et ”ansvars-vakuum”.
Det er en velkendt problemstilling, at det er svært at placere et ansvar med AI. Det skyldes, at ansvaret er spredt på tværs af udviklere, leverandører, indkøbere, dem, der leverer data til en model, it-arkitekter, ledelse og sagsbehandlere.
- Hvis man ikke har en tydelig accountability og governance-model, kan det være svært at placere ansvar, hvis noget går galt, siger hun.
Samtidig er mange systemer så komplekse, at de reelt fungerer som “black boxes”.
- Man ved ikke nødvendigvis, hvordan systemet når frem til sine resultater, og det gør udviklerne heller ikke altid.
Det udfordrer en klassisk forvaltningslogik, hvor beslutninger skal kunne forklares og begrundes. Derfor er det ikke nok at læne sig op ad juraen alene.
- Det juridiske ansvar er et minimum, men det etiske ansvar er bredere. Det handler om, hvilke værdier systemerne afspejler, og om systemet overhovedet egner sig til formålet. Vi har behov for, at sagsbehandlere har en god teknologiforståelse og samtidig har mulighed for at udøve deres dømmekraft, siger hun.
Bias er en af de mest omdiskuterede risici ved AI.
Systemerne trænes på historiske data, og hvis de data afspejler eksisterende skævheder, kan teknologien være med til at reproducere dem.
Etik handler ikke kun om at undgå det forkerte. Den nemmeste måde at undgå at gøre noget ondt er faktisk ikke at gøre noget som helst. Og det er den skæbne, mange AI-løsninger har lidt.
I en kommunal kontekst kan det få vidtrækkende konsekvenser.
- Det kan føre til social og socioøkonomisk skævhed i den måde, borgere behandles på, siger Helene Friis Ratner.
Der findes metoder til at teste for fairness, men ingen af dem er perfekte. Derfor er det vigtigt, at der er et generelt fokus på bias.
- Fordomme findes også uden AI i den menneskelige sagsbehandling. Derfor er det en ledelsesopgave at arbejde med bias og forebygge diskrimination løbende - både i systemer og i organisationen.
Det betyder, at etik ikke kan reduceres til en tjekliste.
At sætte kryds ved “privacy”, “bias” og “ansvar” er ikke nok, hvis man ikke samtidig forholder sig til, hvordan teknologien faktisk bruges i praksis, påpeger Helene Friis Ratner.
Teknologien ændrer mere end tempo
Også Peter Dalsgaard, forsker i digitale teknologier ved Aarhus Universitet, advarer mod at se AI som et neutralt værktøj.
- Den gør ikke bare arbejdet hurtigere. Den kan også ændre magtforhold og ansvarsfordeling, siger han.
Samtidig har mennesker en tendens til at stole på AI-systemer, især når de fremstår sikre og velformulerede.
- Vi tolker velformulerede svar som tegn på indsigt. Derfor kan vi komme til at have større tillid til systemerne, end vi burde. Det kan gøre medarbejdere mindre kritiske og mere tilbøjelige til at acceptere anbefalinger uden tilstrækkelig refleksion.
Derfor peger Peter Dalsgaard på behovet for det, han kalder “refleksiv friktion” - altså arbejdsgange, der tvinger brugeren til at stoppe op og tage stilling.
Samtidig er der en mere langsigtet risiko: At medarbejdere mister faglige kompetencer, hvis de overlader for meget til teknologien.
Fra “hvordan” til “hvorfor”
Spørgsmålet er så, hvordan kommunerne kommer videre på en måde, der både er ambitiøs og forsvarlig.
Her peger Helene Friis Ratner på et grundprincip, som kan lyde banalt, men som hun mener ofte overses i begejstringen over nye teknologiske muligheder:
- Start med at spørge “hvorfor AI” – ikke “hvordan AI”. Hvilket problem skal løses? Og er AI overhovedet den rigtige løsning?
Det betyder også, at kommuner bør passe på med at tage udgangspunkt i teknologien i stedet for behovet.
Hvis problemet kan løses enklere, mere gennemsigtigt eller mere legitimt på andre måder, er AI ikke nødvendigvis svaret.
Omvendt: Hvis AI giver mening, bør både medarbejdere og borgere inddrages tidligt, påpeger Helene Friis Ratner:
- Deres erfaringer og behov når sjældent frem til leverandører eller beslutningstagere, men er afgørende for både legitimitet og funktionalitet.
At så mange kommuner allerede har politikker og retningslinjer kan være et tegn på modenhed. Men det kan også skabe en falsk tryghed, hvis dokumenterne ikke omsættes til praksis.
- Retningslinjer er kun vigtige, hvis de bliver brugt. Hvis de fungerer som udgangspunkt for løbende faglige samtaler om samarbejde, dømmekraft, relationen til borgerne og etiske dilemmaer, så er de meget værdifulde, siger hun.
Historien kort
- Bent Dalager, digital vismand i tænketanken ATV’s Digitale Vismandsråd, advarer mod en defensiv AI-tilgang og siger, at kommuner også har en etisk pligt til at bruge teknologien, når den kan hjælpe borgere bedre og hurtigere.
- Forsker i AI Helene Friis Ratner peger på ansvarsvakuum, black box-systemer og bias som centrale risici og understreger, at etik kræver governance, teknologiforståelse og menneskelig dømmekraft.
- Flere aktører opfordrer kommunerne til at starte med behovet frem for teknologien, inddrage borgere og medarbejdere tidligt og omsætte retningslinjer til konkret praksis.
Tekst, grafik, billeder, lyd og andet indhold på dette website er beskyttet efter lov om ophavsret. DK Medier forbeholder sig alle rettigheder til indholdet, herunder retten til at udnytte indholdet med henblik på tekst- og datamining, jf. ophavsretslovens § 11 b og DSM-direktivets artikel 4.
Kunder med IP-aftale/Storkundeaftaler må kun dele Kommunen.dks artikler internet til brug for behandling af konkrete sager. Ved deling af konkrete sager forstås journalisering, arkivering eller lignende.
Kunder med personligt abonnement/login må ikke dele Kommunen.dks artikler med personer, der ikke selv har et personligt abonnement på kommunen.dk
Afvigelse af ovenstående kræver skriftlig tilsagn fra det pågældende medie.



























