Algoritme-generasjonen

Mens de fleste av oss i dag fremdeles blir vurdert av mennesker når vi er i kontakt med offentlige systemer og tjenester, er det sannsynlig at fremtidens generasjoner i større grad vil bli vurdert ut fra automatiske beregninger basert på algoritmer.

Store mengder persondata blir behandlet ved hjelp av algoritmer allerede og flere vil det bli i fremtiden. I Norge foregår dette på en tilsynelatende trygg måte, ved at oppsatte regler og bevissthet rundt sikkerhet skal garantere at dataene ikke kommer på avveie. Dog har der for noen vært en bratt læringskurve her, som for eksempel i saken hvor Helse Sør-Øst viste seg å ha gitt utenlandske IT-utviklere adgang til systemer og personverndata de ikke skulle hatt tilgang til.

Nettopp på grunn av slike hendelser har man innsett hvor viktig det er at man er bevisst hvordan datahåndteringen foregår. I ettertid har også EU spesifisert nye og bedre krav til personvern i form av Persondataforordningen (GDPR), som styrker sikkerheten på området, også når det gjelder retten til å vite hvordan logikken bak en AI-basert beslutning foregår.

Hvilke utfordringer kan oppstå når maskinlæringsalgoritmer håndterer datamengder om en hel nasjons befolkning?

I Norge er man fremdeles i startfasen på dette, men i USA har man benyttet seg av algoritmer i mange år. Blant annet innenfor amerikansk kriminalomsorg, er algoritmer involvert i å avgjøre hvilke mennesker som potensielt vil komme til å begå kriminalitet, straffelengde, prøveløslatelse og i hvilke fengsler de skal sone. Algoritmer beregner dette ut fra en rekke parametre som for eksempel bosted med høy kriminalitet, vurdert opp mot fare for å begå ny kriminalitet senere, men tar ikke hensyn til at kombinasjonen av disse parametrene statistisk sett sammenfaller for flere afroamerikanere enn for hvite amerikanere.

Dermed er der en overvekt av afroamerikanere som får dårligere soningsvilkår eller får feil utmåling av straff. Som toppen av det hele, er det ikke mulig å få innblikk i dataene for å undersøke dem, fordi selskapet Northpointe som har skapt dem, ikke vil offentliggjøre dem. De mener heller ikke at det er noe feil med algoritmene. Mange vil heller aldri få vite at de har blitt utsatt for urettferdige algoritmer. Dog har dette fått økt oppmerksomhet etterhvert og det er publisert flere artikler, avisinnlegg og bøker de siste årene om problemet. 

Det er lett å være enige i at dette er ekstreme utfall ved bruken av stordata og kunstig intelligens, som man bør gjøre mye for at ikke skal skje. Allikevel er det dette som er den store fallgruven i bruken av kunstig intelligens ved bruk på stordata og det er ikke usannsynlig at urettferdige algoritmer kan få egne utfall i Norge basert på utfordringer som er karakteristiske her i landet, kanskje på områder vi har lite bevissthet omkring i utgangspunktet. Det virker åpenbart at AI-algoritmer kan fungere bra på stordata som ikke direkte innbefatter persondata, mens de nevnte eksemplene viser at man bør være mer restriktiv og bevisst hvordan man behandler stordata når denne inneholder persondata.

Det man også vet er at dårlig datakvalitet inn medfører dårlige resultater ut. Men spørsmålet er om ikke et hvert nye dataområde krever spesialtilpasninger som hver gang medfører ny trening av algoritmer, med dertil hørende risiko for stadig nye typer feil. I Norge forskes det på hvordan man unngår urettferdige algoritmer, i form av å inkludere nye matematiske metoder som skal motvirke og oppdage slike resultater.

Et av områdene som i Norge har mye sensitive persondata er offentlige registre. NAV har i flere år jobbet med å utvikle AI-teknologi på flere av sine kjerneområder, blant annet for å automatisere beregninger og utbetalinger av offentlig støtte og for å fange opp feilaktige utbetalinger. Ved å innføre AI-basert teknologi vil man kunne spare samfunnet for store ressurser, forbedre interne systemer og rutiner og det vil gi bedre tjenester til brukerne.

For å lykkes er der mange elementer som skal på plass, deriblant en forbedret personvernhåndtering slik at persondata kan formidles og bearbeides på tvers av offentlige tjenester, samtidig som personvernet blir ivaretatt og resultatene av dataprosessene er gode og relevante på en slik måte at det ivaretar tilliten hos brukerne. Med amerikanske skrekkscenarier i bakhodet er det lett å frykte at det blir for mange komplekse utfordringer på en gang, ikke minst sett i et økonomisk perspektiv.

I sitt innspill til Kommunal- og moderniseringsdepartementet i forbindelse med Nasjonal strategi for kunstig intelligens 2019, er det tydelig at NAV er seg disse utfordringene bevisst og har fokus på å utvikle AI- baserte tjenester på en etisk og ansvarlig måte, hvilket gir håp om trygge og pålitelige offentlige tjenester også i fremtiden, selv om disse skulle være basert på automatiske algoritmer.

Legg igjen en kommentar

Fyll inn i feltene under, eller klikk på et ikon for å logge inn:

WordPress.com-logo

Du kommenterer med bruk av din WordPress.com konto. Logg ut /  Endre )

Google-bilde

Du kommenterer med bruk av din Google konto. Logg ut /  Endre )

Twitter-bilde

Du kommenterer med bruk av din Twitter konto. Logg ut /  Endre )

Facebookbilde

Du kommenterer med bruk av din Facebook konto. Logg ut /  Endre )

Kobler til %s