Kommunen.dk
MENU

Uklar lovgivning frustrerer: For svært at finde ud af, hvad man må

Usikkerhed om lovhjemmel gør det svært at indfri nationale ambitioner for brug af kunstig intelligens i den offentlige sagsbehandling.

Uklar lovgivning frustrerer: For svært at finde ud af, hvad man må

Usikkerhed om lovhjemmel gør det svært at indfri nationale ambitioner for brug af kunstig intelligens i den offentlige sagsbehandling.
- Jeg ser rigtig mange, der er frustrerede, fordi de har lagt en masse energi i at udvikle noget, som de ikke kan implementere, siger lektor ved DPU Helene Friis Ratner, der forsker i brug af algoritmer i sagsbehandling.
- Jeg ser rigtig mange, der er frustrerede, fordi de har lagt en masse energi i at udvikle noget, som de ikke kan implementere, siger lektor ved DPU Helene Friis Ratner, der forsker i brug af algoritmer i sagsbehandling.
Foto: Illustration: DK Creative/Istock

Kunstig intelligens kan give sagsbehandlere på socialområdet “beslutningsstøtte til forebyggende og individualiserede indsatser ud fra viden fra tidligere sager” og “screene for mulige langtidsledige med henblik på forebyggende indsatser.” 

Sådan lød nogle af ambitionerne i den nationale strategi for kunstig intelligens, som den daværende regering VLK-regering præsenterede i marts 2019. 

Paradoksalt nok har usikkerhed om lovgivningen siden sat initiativer på selvsamme områder i stå.

Beslutningsstøtte    

Automatiseret beslutningsstøtte er brug af en model, der kan foreslå, hvilke borgere, der skal oprettes sager om eller prioritere eller oplyse allerede eksisterende sager, hvor der i sidste ende skal træffes afgørelser af mennesker.

Kilde: Institut for Menneskerettigheder

 

Manglende lovhjemmel

Sidste sommer blev det de facto forbudt at bruge algoritmer til at kategorisere nyledige efter deres risiko for at havne i langtidsledighed. Det skyldtes en udtalelse fra Datatilsynet om en profileringsalgoritme kaldet Asta. 

Profileringsalgoritme

Profilering er automatisk behandling af personoplysninger, hvor bestemte personlige forhold anvendes til at evaluere en person med henblik på at analysere eller forudsige forhold vedrørende personens arbejdsindsats, økonomiske situation, helbred, præferencer, interesser, pålidelighed, adfærd eller lignende.

Kilde: Databeskyttelsesforordningen

 

Tilsynet vurderede, at de lediges samtykke ikke gav kommunerne ret til at bruge deres persondata til at profilere dem som værende i lav, middel eller høj risiko. Magtforholdet svingede for tungt ud til kommunernes side til, at samtykke kunne betragtes som frivilligt. 

Algoritmen var en tilkøbsmulighed i et fagsystem udviklet af teknologivirksomheden Schultz, som 58 jobcentre på det tidspunkt benyttede. Kun et fåtal af dem brugte Asta. For dem, der gjorde, var hensigten at bruge profileringen til at differentiere indsatser, så eksempelvis borgere i lav risiko (grøn) blev indkaldt til samtale senere end borgere i mellem eller høj risiko (gul eller rød). Tilsvarende kunne grønne borgere tildeles et online aktiveringsforløb, mens gule og røde kunne få en personlig jobformidler med samtale hver uge.

Når kommunerne troede, at det var lovligt at anvende værktøjet, kunne det skyldes, at Styrelsen for Arbejdsmarked og Rekruttering, Star, havde udviklet en lignende algoritme til brug i jobcentrene. Men de tog fejl. 

Der var ikke tale om en generel tilladelse. Politikerne havde kun specifikt givet Star lov til det, fortæller lektor i persondataret ved juridisk institut på Syddansk Universitet Ayo Næsborg-Andersen.

Ville kommunerne fortsat bruge Asta, krævede det, at der blev skabt hjemmel i national lovgivning, lød Datatilsynets vurdering.

Udtalelsen fik følgekonsekvenser, der rakte ud over den konkrete sag. Både Odense og Frederiksberg Kommune jokkede hårdt på bremsen i forhold til deres signaturprojekter på beskæftigelsesområdet.

Signaturprojekter

Regeringen, KL og Danske Regioner oprettede i forbindelse med økonomiaftalerne for 2020 en investeringsfond øremærket til afprøvning af nye teknologier i den offentlige sektor. Fra 2020-2022 har investeringsfonden støttet i alt 40 såkaldte signaturprojekter, hvoraf 20 har været forankret i kommunerne. 12 af dem har ifølge Kommunen.dks opgørelse haft sigte på at udvikle løsninger, der kan virke som beslutningsstøtte i sagsbehandlingen. Tre af de 12 projekter er endnu ikke afsluttet, ét er i fuld drift, mens flere er lukket ned før tid.

 

Den nye usikkerhed om lovhjemlen gav dermed det i forvejen skrantende projekt i Odense dødsstødet uden dog at svække beskæftigelses- og socialrådmand Christoffer Lilleholts (V) appetit på at bruge lignende værktøjer i jobcenteret. 

- Det kunne være, at man kunne smide alle somaliske kvinders erfaringer ind i en kunstig intelligens og få forslag, siger han.

I det nedlagte projekt skulle et algoritmebaseret værktøj netop hjælpe ledige borgere hurtigere i job ved at komme med målrettede forslag om kurser, praktik eller andre beskæftigelsesrettede indsatser, som tidligere ledige med en lignende profil havde gennemført forud for at komme i job. Indsatser, som jobrådgiveren måske ikke selv var opmærksom på. 

- Det stopper hele udviklingen i digitaliseringen i jobcentrene, siger Christoffer Lilleholt. 

Og han er ikke ene om at ærgre sig.

Mange er frustrerede

Mange har søsat projekter for senere at opdage, at de er ulovlige at anvende i sagsbehandling, fortæller lektor ved DPU Helene Friis Ratner. Hun står i spidsen for et delprojekt om prædiktive algoritmer i offentlig forvaltning, som hører under det ti-årige forskningsprojekt Algoritmer, Data og Demokrati, ADD, der blev søsat i 2021 som et samarbejde mellem seks danske universiteter. 

- Jeg ser rigtig mange, der er frustrerede, fordi de har lagt en masse energi i at udvikle noget, som de ikke kan implementere, siger hun.

- Man har simpelthen ikke haft adgang til eller opsøgt den nødvendige juridiske kompetence i projektudviklingsfasen.

Frustrationen begrænser sig ikke til beskæftigelsesområdet. Også på socialområdet har usikkerhed omkring lovgivningen sat projekter på pause.

- Det er for svært at finde ud af, hvad man må, konstaterer lektor ved Via University College Line Berg, der er jurist og arbejder på forskningsprojektet Underretninger i Fokus. 

I juni sidste år valgte forskerne at droppe afprøvning af værktøjet Beslutningsstøtten på underretningssager i kommuner af frygt for at bryde loven. 

Det skete på trods af, at advokatfirmaet Poul Schmidt ikke bare én, men to gange med 15 måneders mellemrum havde vurderet, at kommuner lovligt kunne inddrage værktøjet i behandling af sager om underretninger af børn. 

Værktøjet er udviklet til at undersøge, om en algoritme-baseret beslutningsstøtte kan styrke beslutningsgrundlaget, når socialrådgiverne vurderer en underretning. 

Underretninger i Fokus  

Beslutningsstøtten er udviklet som led i forskningsprojektet Underretninger i Fokus i et samarbejde mellem Trygfondens Børneforskningscenter og Via University College til at understøtte socialrådgivernes arbejde med at vurdere, hvilke børn der er i risiko for mistrivsel. På baggrund af oplysninger om barnet og dets familie, tildeler det algoritmebaserede værktøj barnet en risikoscore mellem et og ti. En score på ti betyder, at barnet er blandt de ti procent børn i sin aldersgruppe, der underrettes om, som har den højeste risiko for at blive anbragt inden for et år. En risikoscore på et betyder, at barnet er blandt de ti procent, der er i lavest risiko for at blive anbragt inden for et år.

 

Risiko for overoplysning

Men brugen af det kan være i strid med forvaltningsretlige principper om kun at inddrage oplysninger, der er nødvendige for den enkelte sag, mener juridisk konsulent og underviser ved Seminarer.dk Bente Adolphsen, der tidligere har undervist i forvaltningsret på socialrådgiveruddannelsen.  

For når man standardiserer og automatiserer, hvilke oplysninger en algoritme trækker og behandler, risikerer man at overskride grænsen for, hvad der er nødvendigt.

- Som kommune skal man tage bestik af, hvad der står i underretningen, og vurdere, hvad det giver anledning til, siger hun.

Det betyder, at der i hver enkelt sag skal tages stilling til, hvilke oplysninger der er relevante.

- Hvis man automatisk høster data, vil man i en hel del sager risikere overoplysning, vurderer hun.

Det kan forekomme i sager, hvor en underretning åbenlyst er grundløs. Det har hun set adskillige eksempler på. For eksempel en underretning om et barn, der havde fået briller, som faren havde glemt at hente eller chikanesager, hvor den ene forælder underretter om den anden for at vinde en forældresag. Nogle har helt enkelt misforstået, hvad underretninger går ud på, fortæller hun.

Kender ikke spillereglerne

Grundlæggende handler det om at beskytte borgernes data og privatliv og undgå at inddrage usaglige hensyn, men generelt er der stor tvivl om, hvordan man tolker databeskyttelsesforordningen, fortæller Helene Friis Ratner. Dertil kommer den øvrige lovgivning, der kan være gældende afhængig af område og formål.

- Der er flere eksempler på, at man anvender forskningshjemlen til at udvikle algoritmer, men ikke kan implementere dem efterfølgende, fordi det så falder ind under en anden lovgivning, siger hun. 

Mens der er forholdsvis vide rammer for, hvilke data man kan behandle i forskningsregi, gælder der andre regler for myndighedsudøvelse. 

- Det er et rigtig stort problem, at vi ikke kender spillereglerne, siger Line Berg.

- Det handler om at indsamle mere viden om, hvorvidt vi kan lave en algoritme, der med rimelig sikkerhed kan forudsige på det her felt, og hvilken virkning det vil have i praksis. Vi kan ikke komme videre med en afprøvning, før vi får styr på det juridiske.  

EU på vej med regulering

I rapporten “Når algoritmer sagsbehandler” fra 2021 adresserede Institut for Menneskerettigheder netop fraværet af udtrykkelige regler om, hvornår og hvordan myndigheder må bruge algoritmer. Men Line Berg gør sig ingen forhåbninger om, at der bliver taget stilling nationalt, før EU’s forordning om kunstig intelligens er på plads. Aftalen forventes at falde på plads til december, hvorefter der kan gå et til to år, inden den træder i kraft.

AI Act, som forordningen kaldes, skal regulere, hvordan kunstig intelligens må udvikles og anvendes, så det er sikkert for borgerne og samfundet. Det indebærer for det første, at der skabes en fælles definition af, hvad kunstig intelligens er, og at kunstig intelligens-systemer klassificeres efter risiko. Det kan få konsekvenser for kommuner, der bruger visse typer af beslutningsunderstøttende værktøjer. 

I sit forslag lægger kommissionen op til, at AI-systemer, som det offentlige bruger til at vurdere, om en person for eksempel har ret til sociale ydelser og tjenester, skal klassificeres som højrisiko-systemer, og det vil medføre høje krav til blandt andet datakvalitet, teknisk dokumentation, nøjagtighed, gennemsigtighed og menneskeligt tilsyn.

Sønderborg har knækket koden

Sønderborg Kommune er lykkedes med at implementere en model, som både borgere, sagsbehandlere og sågar læger har gavn af.

De fleste vil instinktivt vide, at det er dårligt nyt, når en borger er nødt til at rykke kommunen for svar, fordi sagsbehandlingen trækker ud. 

På det seneste er der blevet længere mellem utålmodige henvendelser fra borgere i den afdeling, der behandler ansøgninger om kropsbårne hjælpemidler i kommunen. Siden det algoritmebaserede system RefCase blev sat i drift sidst i januar, er det blevet nemmere at behandle en ansøgning, og det kan mærkes i det fire mand store team. 

- Før kunne der være 250 igangværende sager, nu har vi under 100 sager - måske 75 i gang ad gangen, fortæller en sagsbehandler. 

Der er to ting, systemet er godt til, fortæller digitaliseringskonsulent og projektleder Jesper Schmidt. Det første er at give et hurtigt overblik over borgerens sag, og det andet er at sammenligne med tidligere sager. Begge dele øger effektiviteten og forkorter dermed sagsbehandlingstiden.

Der er åbenlyst grænser for, hvor længe en borger kan vente på stomi- eller diabeteshjælpemidler, men uanset om det drejer sig om parykker, korsetter, kompressionstrømper eller ortopædisk fodtøj, ved medarbejderne, at det har stor betydning for borgerne, at de forholdsvis hurtigt får et svar.

Der går omtrent et døgn fra en digital ansøgning havner i systemet, til det har samlet de oplysninger, kommunen har om borgeren, og sammenlignet med lignende sager. 

Jesper Schmidt sammenligner det med en effektiv udgave af at spørge sidemanden.

- Hvad gjorde vi sidste gang? Hvad skal vi hente af oplysninger?

På baggrund af blandt andet helbredsdata, bevillingsbreve, afslag, partshøring, klager, genvurderinger, afgørelser fra Ankestyrelsen og billedmateriale præsenteres sagsbehandleren for de sager, der med størst sandsynlighed ligner den aktuelle. 

Ved at se på den sag, der ligner mest, kan sagsbehandleren hurtigt vurdere, om der er oplysninger nok til at træffe en afgørelse.

Ikke mindst i de mere sjældne sager, hvor man tidligere var henvist til at grave dybt i både hukommelsen og op til flere forskellige systemer, er RefCase en god støtte. 

Noget, der især har vist sig at være en stor hjælp for sagsbehandlerne, er systemets sproglige evne til at koble lægefaglige udtryk til den til tider bøvlede lovgivning, som medarbejderne ellers har ret godt styr på. 

- Før brugte vi lang tid på at sammenligne de lægefaglige latinske betegnelser med juridiske, fortæller en sagsbehandler. 

Søger en borger for eksempel om støtte til ortopædiske fodindlæg, kan der ifølge reglerne ydes støtte ved varig lidelse forårsaget af leddegigt med svært forfodsfald og tå-deformiteter. Er det så relevant, når lægen skriver noget om metatarsalgi? Det er algoritmen trænet til at vide. Og det sparer både sagsbehandlerne og lægerne tid.

- Vi vil helst ikke forstyrre lægerne mere end højst nødvendigt, siger en af sagsbehandlerne.

Sønderborg ser ud til at være lykkedes, hvor andre har fejlet. At løsningen også er lovlig, er Jesper Schmidt sikker på. 

- Vi har haft eksperter ind over, og vi har oplyst samtlige borgere om, at vi har udviklet en model, så vi mener, at vi har gjort det, vi skulle, siger han. 

 

Kunstig intelligens i det offentlige

I dag findes der ikke noget overblik over, hvor i det offentlige Danmark der bliver brugt kunstig intelligens. En intern projektgruppe i Datatilsynet, som blev nedsat sidste forår, er dog ved at lægge sidste hånd på en spørgeramme, som skal hjælpe med at kortlægge brugen. Projektgruppen, hvis fokus er kunstig intelligens og databeskyttelse, skal også udarbejde vejledninger, der kan benyttes ved udvikling og brug af kunstig intelligens-løsninger.

 


 

Tekst, grafik, billeder, lyd og andet indhold på dette website er beskyttet efter lov om ophavsret. DK Medier forbeholder sig alle rettigheder til indholdet, herunder retten til at udnytte indholdet med henblik på tekst- og datamining, jf. ophavsretslovens § 11 b og DSM-direktivets artikel 4.

Kunder med IP-aftale/Storkundeaftaler må kun dele Kommunen.dks artikler internet til brug for behandling af konkrete sager. Ved deling af konkrete sager forstås journalisering, arkivering eller lignende.

Kunder med personligt abonnement/login må ikke dele Kommunen.dks artikler med personer, der ikke selv har et personligt abonnement på kommunen.dk

Afvigelse af ovenstående kræver skriftlig tilsagn fra det pågældende medie.

Til toppen
GDPR