Vi har vært inne på temaet ansiktsgjenkjenning i et tidligere innlegg, hvor det dreide seg om teknologien til Michael Kosinski som skulle kunne gjenkjenne etnisitet og seksuell legning i ansikter. Ansiktsgjenkjenningsteknologi, fra nå av kalt AG-teknologi, har vært i bruk i flere år og fungerer ved at man måler avstanden mellom en rekke biometriske punkter i et ansikt. Disse vil stort sett være ulike for hvert enkelt menneske, men det finnes flere eksempler på at dobbeltgjengere lurer algoritmene.
De fleste av oss er vant med at offentlige områder og transportmidler har kameraovervåkning. Tradisjonelt sett har dette vært vanlige kameraer som filmer det som skjer og hvor innholdet på et gitt tidspunkt blir slettet igjen. Hovedsakelig er denne overvåkningen forbundet med trygghet for de fleste. Vi vet samtidig svært lite om teknologien i kameraovervåkning, som de siste årene har blitt langt mer komplisert enn de fleste er klar over. Vi har allerede vært inne på dette i et tidligere innlegg.
I boken Hallo Verden, skrevet av matematiker og programleder Hannah Fry, forteller hun om utfordringene ved bruken av algoritmer knyttet til ansiktsgjenkjenning og nevner flere eksempler hvor algoritmene svikter. Eksempelvis er algoritmer i ansiktsgjenkjenning langt mindre pålitelig enn DNA. Episoden med Robert Stirling og Neil Douglas som helt tilfeldigvis havnet ved siden av hverandre på et fly i England er bare et av flere eksempler på at dobbeltgjengere finnes.
I Google’s bildesøk på nett har man kunnet søke med bilder i flere år, ikke bare portretter, men alle slags motiver. Det er en forutsetning for å finne bilder på denne måten at bildet befinner seg på en åpen og tilgjengelig nettside, indeksert av Google.
Google bruker ansiktsgjenkjenning og kan svært nøyaktig skille ansikter fra hverandre, mens andre algoritmer gjenkjenner andre motiver og kategoriserer disse etter innhold. Man kan dermed finne opprinnelsen til et bilde man mangler kilde og fotograf på. Også fotografer kan gjenfinne egne bilder for å se hvor de er brukt, enten det er lovlig eller ulovlig bruk. Bilder uten kilder og opprinnelse er et stadig hyppigere problem på nett, hvor mange ser ut til å tro at det er fritt frem for å bruke bilder man finner.
Politi i flere land har også brukt ansiktsgjenkjenning i mange år og en del flyplasser har også tatt det i bruk. For et par år siden ble denne type teknologi implementert i mobiltelefoner for å ha en sikker innloggingsmetode som sikrer at det kun er en selv som har adgang til mobilen. Har man noensinne stått med plasterlapp på fingeravtrykkstommelen og skulle åpne mobilen, innser man at ansiktsgjenkjenning har sin verdi. Men allikevel, flere har oppdaget at ansiktsgjenkjenning også har sine utfordringer, eksempelvis finnes det en del tvillingpar rundt omkring som kan lure gjenkjenningsteknologien på hverandres mobiler. Men generelt sett, så har ansiktsgjenkjenning fremstått med en nyttig verdi som øker sikkerheten på flere områder.
Det var inntil vi leste om teknologiselskapet Clearview AI. Bak selskapet står en ung mann ved navn Hoan Ton-That som tidligere har utviklet phishing-baserte tjenester. Ikke akkurat noen ærverdig karrierebakgrunn, altså. Ved hjelp av biometriske algoritmer og tagging, identifiseres fremmede mennesker med navn, kun ved hjelp av et stillbilde av en person. Ved å søke med bildet i en søketjeneste hvor denne AG-teknologien er implementert, vil man få alle bilder av denne personen samt navn på personen. Bildedatabasen er bygget opp via bilder blant annet fra Facebook og Instagram og skal ha 3 milliarder bilder så langt. For å samle inn bildene har man brukt web scraping, hvor man ved hjelp av script automatiserer innsamlingen. Dette er gjort uten å be om tillatelse fra Facebook eller brukerne.
Clearview AI presenterer seg med slagordet: «Technology to help solve the hardest crimes» på sine nettsider og påstår at teknologien er ment for politiet. De forsvarer seg med at bildene i databasen kun består av offentlige tilgjengelige bilder. Som kjent er alle profilbilder på Facebook offentlige selv om profilen ellers kan være privat. Svært mange mennesker glemmer at hele Facebook profilen er offentlig tilgjengelige og søkbare med mindre man har endret innstillingene. Dermed blir bildene indeksert av Google.
Clearview argumenterer med at teknologien skal ha bidratt til å gjenkjenne en terrormistenkt av New York Police Department og skal også ha vært brukt til å identifisere ofre i pedofile nettverk. Selv om teknologien kan være nyttig innenfor gitte rammer, blir det allikevel svært tydelig hvor mange personvern-relaterte problemer det er her.
Det største problemet er at teknologien er blitt solgt til land som Brazil, Colombia og Nigeria, De forente arabiske emirater og Quatar. Flere av disse er kjent for å ikke overholde menneskerettighetene. Europeiske land som har forpliktet seg til EU’s GDPR-forordning har også latt seg lokke; nemlig Italia, Hellas og Nederland. (Oppdatering pr 3. mars 2020: Ifølge en artikkel hos Digi.no har også Norge, samt de fleste andre europeiske land fått tilgang til teknologien, selv om det hersker usikkerhet om den er blitt tatt i bruk.)
Hvis denne søkemuligheten blir viden kjent vil det innebære en enorm personvernutfordring. Man kan se for seg privatpersoner som fotograferer fremmede på offentlige transportmidler, kvinner som blir ulovlig fotografert på utesteder, fordi interesserte menn vil vite hvem de er. Eller folk som på ulik vis skiller seg ut, transpersoner for eksempel, som risikerer trakassering. Stalkere og sinte eks-kjærester vil få flere metoder til å overvåke sine ofre.
Foreldre som har lagt ut bilder av sine barn på nett vil virkelig få noe å bekymre seg over. En del av utfordringen er at teknologien er så nøyaktig i sin evne til å gjenkjenne biometri at den klarer å spore et ansikt på tvers av alder. Med andre ord kan bilder av et barn på fem år bli gjenkjent fem år senere som ti år gammelt og så videre. Det er dessuten et stort problem å få fjernet bilder på nett, når disse først er publisert av andre enn en selv. Man har svært få rettigheter her, selv om Google har moderert seg noe de siste årene, men prosessen kan bli lang.
Datingtjenester går også en vanskelig tid i møte, når det er mulig å finne ut hvem den du chatter med er i virkeligheten. Særlig for LBGT-personer vil dette medføre en ekstra risiko både ift til det individuelle personvernet, men ikke minst i land hvor lesbiske, homofile og transpersoner blir straffeforfulgt og drept. Det er lett å se for seg at dette fort kan anta trakasserende former, i tillegg til at det bryter med personvern generelt. Vi tar det for gitt at man kan bevege seg fritt i samfunnet uten at noen skal vite hvem vi er, med mindre vi selv forteller det. Og at vi skal kunne laste bilder av oss selv og andre til en nettside, uten å bli identifisert.
Litt avhengig av hvor omfattende innsamlingen av bildedata er og om Clearview fortsetter å samle flere bilder til databasen, blir det klart at dette kan innebære svært store utfordringer, når hvem som helst har adgang. Spørsmålet er også om det er mulig å ta teknologien tilbake hvis den først er sluppet løs. Ettersom bilder er søkbare på tvers av språk, vil bruken være global. Alt man trenger er et bilde og tilgangen til en søketjeneste med teknologien implementert.
Både Facebook, Google og Twitter med flere har i etterkant krevd at Clearview skal stoppe web scrapingen og slette innholdet. I New Jersey har en rettskjennelse medført at politiet ikke lengre får bruke tjenesten. Man kan også stille spørsmål ved hvilket ansvar Facebook og andre tjenester har for å ivareta brukernes interesser og sørge for at det ikke er mulig å kopiere innhold.
Det forteller også noe om hvilke etiske dilemmaer teknologiselskaper står overfor når de utvikler nye algoritmer og tjenester. Når en ung mann på 30 utvikler AG-teknologi, for deretter å selge den til hvem som helst, uten tilsynelatende å tenke over hva det medfører for milliarder av mennesker, kan man spekulere på om dette bør reguleres på et vis.
AG-teknologi generelt er tatt i bruk svært mange steder. Det mest ekstreme og omfattende eksempelet er kinesiske myndighetene som overvåker hele sine befolkning og også bruker det i sin forfølgelse av uigurene, Kinas muslimske minoritet i Xinjiang-provinsen. Men den kommersielle bruken av teknologien øker overalt ettersom den blir bedre og sikkert også billigere. I Norge og i Europa forventer vi at aktører forholder seg til reglene, men i og med at det er umulig å få bekreftet hva slags software som brukes i overvåkningskameraer i det offentlige rom, i butikker eller i bedrifter, er det ikke umulig å se for seg at dette ikke er i overenskomst med loven. Det er simpelthen så mye å vinne både kommersiellt i markedsførings-øyemed og så liten sjanse for å bli oppdaget, at det er lett å se for seg at noen vil ignorere loven.
Saken rundt Clearview og AG-teknologien deres er fremdeles ganske fersk, så det kan bli spennende å se hva som skjer videre. Men denne saken gir grunn til å stille spørsmåletom hvordan man skal unngå at ikke skadelige algoritmer og teknologi kommer i feil hender. Bør teknologiske nyvinninger vurderes av en ekspertgruppe, før de slippes ut på markedet?
Teknologi knyttet til biometriske data er en ny utfordring når det gjelder personvern og kunstig intelligens. Bruken av persondata hos aktører som Facebook og Google er alvorlig nok, ikke minst fordi også disse kaster seg på biometri-teknologien. Som kjent har Google kjøpt Fitbit hvilket indikerer at de jobber med dette. Med superraskt 5G nettverk, wifi-baserte dippedutter som registrerer alle dine personlige og biometriske data fra hjem-, helse- og treningsapper og med AI- baserte teknologifirmaer klare til å snappe opp det hele, går vi uten tvil en svært utfordrende og spennende tekno-fremtid i møte.