Bør man frykte kunstig intelligens?

Det store spørsmålet for mange mennesker er hvorvidt man har grunn til å frykte kunstig intelligens (AI – Artificial Intelligence) eller ikke. Mange vet lite om hva kunstig intelligens er, hvor langt man er kommet i utviklingen, samt hva teknologien brukes til.

For mange handler frykten om at en eskalerende robotintelligens skal bli en trussel for mennesket som vil utrydde oss eller ta jobbene fra oss. Spør man ekspertene som faktisk jobber med AI, er de fleste enige om at man har langt igjen før AI kan bli en potensiell trussel for menneskeheten, om det overhodet er mulig. Uenigheten om dette er også stor blant eksperter og fagpersoner.

Andre frykter at vi kan miste oversikten og tilgangen til algoritmene og hva de er i stand til å gjøre, særlig innenfor de etiske rammene. Som nevnt i et tidligere blogginnlegg, har man sett eksempler på at algoritmer foretar urettferdige beslutninger, blant annet innen amerikansk kriminalomsorg. At AI- algoritmer brukes i rettsvesenet er absolutt noe man kan være skeptisk til.

Utfordringen er delvis knyttet opp til selve algoritmene og utviklingen av disse. I tillegg handler det om utfordringene knyttet til datagrunnlaget og hvordan dataene er utvalgt og samlet inn. Hvis det i tillegg er snakk om innsamling av persondata, blir det også viktig hvordan personvernet til bidragsyterne blir ivaretatt. Det er med andre ord en rekke potensielle fallgruver som påvirker det endelige resultatet.

Det er flere eksempler på at aktører tar i bruk algoritmer og AI på områder som potensielt truer vårt privatliv og personvern. IT-giganter som Google, Apple, Facebook og Microsoft har lenge benyttet AI i sine tjenester. En vesentlig del av bekymring til disse handler først og fremst om hvordan de suger til seg brukerdata med mer eller mindre uoversiktlige metoder, samt usikkerheten rundt hva de bruker dataene til, ikke minst i form av fremtidsrettede tjenester vi i dag ikke kjenner, men som kan benytte disse dataene som er blitt samlet inn gjennom milliarder av brukere over mange år.

Inntil nå har overvåkning vært basert på filmopptak hvor sekvenser av opptak må gjennomgås manuelt. Etter hvert er videoovervåkning ofte basert på intelligent videoanalyse. Dette innebærer at overvåkningskameraene selv oppfatter hva det filmer og ved hjelp av algoritmer og metadata lokaliserer hva som skjer. Formålet kan være alt fra sikkerhet til datainnsamling til et hvilket som helst formål, også i form av markedsrelaterte interesser for å skreddersy tjenester for brukere eller for å øke fortjenesten hos en bedrift.

Dette er en personvernutfordring. En av de store utfordringene er å få vite hva slags data som blir samlet inn om oss, og hvordan denne brukes og hvordan man kan motsette seg at data ikke blir brukt eller misbrukt. Krav om innsyn og åpenhet rundt hvordan algoritmene fungerer er helt essensielt. Samtidig diskuterer ekspertene om sistnevnte overhodet er teknisk mulig. Likeledes er det nødvendig med etisk bevissthet rundt hvordan datainnsamling foregår og hvordan denne benyttes videre i andre sammenhenger.

Det er allerede mange eksempler på at man ikke har fulgt etiske retningslinjer og tatt hensyn til personvern når man har innsamlet data og utviklet algoritmer og AI-basert teknologi, som de amerikanske eksemplene som nevnt i et tidligere innlegg. I Norge har vi et eksempel fra Peppes Pizza på Oslo S for et par år siden, hvor en mannlig Peppeskunde oppdaget at reklameskjermen som pleide å vise forslag fra Peppes-menyen, i stedet viste metadata-kode basert på hans kjønn, alder og utseende. Overvåkningskameraet benyttet avansert videoanalyse for å se hvem kunden var, og kunne på denne bakgrunn vise forskjellige menyer til henholdsvis menn og kvinner, hvor menn ble presentert for biffpizza, mens kvinner fikk salatreklame.

Mannen tok bildet av skjermen og offentliggjorde det. Dermed måtte Peppes Pizza forklare seg overfor DinSide.no som grep fatt i saken.
Både Peppes Pizza og firmaet ProntoTV som stod bak løsningen, måtte forklare at formålet med de målrettede reklamene var analyse av brukergruppen, mer enn å få kvinner til å spise mer salat enn menn.

Det er allikevel ikke vanskelig å se at dette blir feil og som kvinne kjenner jeg meg direkte fornærmet over å skulle bli forsøkt lurt til å velge salat fremfor pizza. Det er dessuten lett å se for seg hvilken retning dette kan ta videre, for eksempel i form av overvektige mennesker som skal lures til å spise en viss type mat enten det går i favør av slanking eller overspising. Kamerovervåkning uten en god grunn er ulovlig, det samme er datainnsamlingen foretatt uten at brukerne får vite det. I tillegg blir det foretatt beslutninger for deg som du ikke er klar over, noe de fleste vil oppfatte negativt. Det er dessuten også ulovlig.

Da Dinside fordypet seg i denne saken, viste det seg også at firmaet som står bak videoanalyse-programmet, amerikanske Kairo, har utviklet ansiktsgjenkjenningsteknologi som skal gjenkjenne etnisitet i ansikter, som de mener blant annet kan brukes i slektsforskning og tilpasning av make-up. Dessverre har bruken av ansiktsgjenkjenning helt andre formål i land som Kina, hvor denne teknologien allerede benyttes for å overvåke, forfølge og fengsle uigurene som er Kinas muslimske minoritetsgruppe i Xinjiang- provinsen. Man kan lese inngående om denne prosessen her.  

Et annet eksempel hvor ansiktsgjenkjenning er blitt brukt på en måte som ikke gavner hverken folk eller teknologi, er forskningen til Michael Kosinski ved Stanford, som utviklet en algoritme som kunne skille homofile menn og kvinner fra hetrofile. Selv om Kosinski selv erkjenner at dette er forskning som kan misbrukes, fraskriver han seg samtidig alt ansvar ved utsagn som «Jeg bygde ikke bomben, jeg bare viste at den eksisterer». Michael Kosinski er også mannen som utviklet metodene som Cambridge Analytica benyttet, hvor enorme mengder data ble hentet ut om Facebook-brukere og misbrukt for å påvirke amerikansk valgkamp.

Når man utvikler AI teknologi, men mangler erkjennelsen av hvordan den kan misbrukes av andre, kan det i siste instans resultere i at mange mister den grunnleggende tilliten til hele prosessen, fra innsamling av data og teknologisk utvikling til regelverk og formålet med tjenesten.