Etter at Microsoft offentliggjorde chatboten Tay, som i løpet av et døgn ble redusert til en kvinnefiendtlig rasist-bot, har bevisstheten blitt stor rundt urettferdige algoritmer og hva dette kan medføre. Ettersom chatboter i stor grad nettopp skal benyttes i en sosial sammenheng, til kundeservice og i offentlig virksomhet er det helt essensielt at den kan oppføre seg ordentlig! Kan man ikke stole på dette hos en chatbot, har den ingen fremtid, etter vår mening.
Blant annet på grunn av dette har begrepet «fairness» dukket opp. Gjennom bevissthet rundt datagrunnlaget man benytter til kunstig intelligens i en chatbot, ønsker man å unngå at chatboten utvikler negative holdninger, hat, fordommer og negative verdier man ikke ønsker at chatboten skal assosieres med. Dette kan være alt fra språklige uttrykksformer og diskriminerende holdninger til voldelige og seksuelle beskrivelser som eksisterer i datagrunnlaget. Hvis dataene innholder denne type beskrivelser, kan dette eskalere under bearbeidelsen og utviklingen med chatboten.
Problemet kan også oppstå når man snakker med chatboten fordi man ønsker å tildele den upassende holdninger, hvilket var årsaken til at Microsoft’s Tay utviklet seg som den gjorde. Forestillingen er dog at hvis man har tatt høyde for dette i utviklingen av chatboten, så skal dette være mulig å unngå. Fra en filosofisk tilnærming er det et interessant spørsmål om det overhodet er mulig å unngå dette fullstendig i og med at en chatbot er skapt av mennesker og derfor også muligens vil være preget av menneskelige begrensninger, enten vi liker det eller ei. Nå er der stor forskjell på datagrunnlaget til en chatbot og mer tallbasert datagrunnlag, men utfordringene eksisterer uansett på tvers av områdene fordi den felles parameteren er at det er mennesker som har produsert dataene.
Også i saken med COMPAS – algoritmene som amerikansk rettsvesen benytter for å dømme kriminelle til riktig fengselstraff, har det vist seg at utfordringene knyttet til fairness er så store at det kan diskuteres om algoritmene overhodet kan brukes. Forfatter og matematikkprofessor David Sumpter diskuterer denne saken i boken Outnumbered og han konkluderer at så fremt man har et datagrunnlag med ujevnt utgangspunkt, vil det være matematisk umulig å oppnå rettferdighet i algoritmene.
Det er med andre ord usikkert om man kan gardere seg mot urettferdige algoritmer. Det kreves ihvertfall mange etiske overveielser og høy grad av bevissthet rundt utvalget av dataene og hvilke fallgruver man kan gå i, for å skape valide resultater som kan benyttes på ulike samfunnsmessige områder.