Chatbot med empati?

Mens begrepet ‘fairness’ først og fremst handler om å håndtere temaer man vil unngå at chatboten skal snakke om, er der andre samtaletemaer som det ville være fint om det gikk an å snakke om, men uten at samtalen går i feil retning.

Selv om det er en lang vei å gå for å få en chatbot til å fremstå med empati, er det jo absolutt et ønske at dette skal være mulig. Både på det helt grunnleggende nivå, hvor det handler om å oppfatte motpartens humør på bakgrunn av hva man sier, men også ved å kunne snakke om vanskeligere emner som krever evne til innlevelse, empati og forståelse.

I dag brukes ofte emojies for å formidle følelser til chatbots. Dette gjør det enkelt for chatboten å forstå hvilket humør man er i. For mange er emojies en helt naturlig del av den skriftlige kommunikasjonen man har med sine venner, mens andre ser emojies som en overfladisk og kunstig kommunikasjonsform.

Ettersom det finnes veldig mange forskjellige emojies, kan også forståelsen av en emoji fortolkes forskjellig fra person til person. Dessuten har det vist seg at emojis er forskjellig fra plattform til plattform; Apple’s smileansikter er langt mer vennlige enn Samsung sine.

For å unngå emoji-forvirring bør dermed en chatbot forstå humør og følelser uten bruk av emojies, selv om dette krever langt mer av chatbotens evne til å tolke betydning i det vi sier.
Men ikke nok med det; skal en chatbot være en god samtalepartner bør den ultimate kognitive chatbot også være i stand til å håndtere samtaler om de vanskeligste temaer, som angst, depresjon og selvmord. Nettopp dette er temaer som kan være vanskelig å snakke med andre mennesker om, fordi det for mange er tabubelagt og stigmatiserende å snakke med venner om det.

Om chatboten svikter i å gi hensiktsmessige svar på følelsesmessige temaer, bør den være i stand til å komme med alternative løsninger som å foreslå å snakke med en psykolog i stedet, slik den terepeutiske chatboten Woebot skal gjøre i de tilfeller.

Dette er i så fall funksjoner som må programmeres spesifikt, basert på utvalgte ord som blir brukt. Mange jobber med å utvikle empatiske chatbots for tiden. Naturligvis alle de store teknologiselskapene har jobbet med dette i flere år, i form av verbale chatbot-tjenester som skal utføre diverse oppgaver for brukeren. Tjenestene fungerer mest som en verbal informasjonskanal og et sted man kan få konkrete oppgaver løst i form av varebestilling osv, mens de nok ikke imponerer på empatisk forståelse og innlevelse så langt. Men det jobbes nok med det og. I Norge jobbes det med en chatbot for unge, UngBot, som skal være en psykologisk chatbot. Chatboten er fremdeles i test-versjon, men har tilsynelatende et potensiale på sikt når det gjelder å snakke om mer komplekse temaer.
Replika er blant de mer vellykkede chatbots når det gjelder å fremstå empatisk, om enn man selv må trene den opp for å få det fulle ut av den. (Les gjerne denne underholdende langlesingen om Replika fra Dagens Næringsliv.)

Felles for de fleste chatbots, er at de er engelskspråklige, så det å få det samme til på norsk, er en ekstra barriere som må forseres. Det kan se ut til at veien frem til en empatisk og personlig chatbot er lang og kronglete, men det er absolutt mulig.