Digitale samtaletjenester som terapeutisk hjelpemiddel

Chatbots og digitale dialogtjenester er i en rivende utvikling og det kan være vanskelig å følge med. Forskningsartikler, tidsskrifter og fagbøker på dette området har vokst enormt i omfang de siste årene.

Selv om norskspråklige kognitive chatbots og digitale samtaletjenester fremdeles har en vei å gå før de kan implementeres innenfor ulike fagområder, så vil teknologisk og språklig utvikling medføre at de kommer til å bli avanserte nok til å fungere innenfor komplekse språkområder også på norsk. Et slikt område kan godt bli i form av terapeutiske samtaletjenester.

Woebot, en engelskspråklig chatbot, du kan snakke med om litt av hvert.


Psykiske utfordringer er et problem for mange

Psykiske lidelser er et stort problem for mange. Til tross for ny forskning og utvikling av nye behandlingsmetoder har hverken angst eller depresjoner blitt redusert de siste tredve årene, ifølge psykologspesialist Tommy Sotkajærvi i NRK innlegget «Den stille pandemien». Han frykter at det vil være umulig å ta igjen det etterslepet som har oppstått knyttet til psykiske utfordringer i Norge.

Man skal heller ikke glemme at en del utfordringer knyttet til psykisk helse er relatert til problemer på samfunnsnivå og bør løses politisk, slik Ina Libak beskriver i et innlegg.

Noen ganger går mental helse under radaren hos leger, gjerne fordi hovedfokuset ofte ligger på somatiske plager, men også fordi mennesker med psykiske problemer lider i det stille. Psykiske plager er tabubelagte og stigmatiserende og derfor er de vanskelige og risikable temaer å snakke om for mange, selv hos legen. I tillegg er det lange ventelister hos psykologer med henvisning fra fastlege, så selv de som aktivt søker hjelp, vil sjeldent få det umiddelbart.

Er man så heldig å få psykologhjelp, forteller mange at det er svært varierende hvor godt det fungerer. Både god relasjon, kommunikasjonsklima og riktig metodikk spiller inn for hvor godt konsultasjoner fungerer. Det er dog ikke sikkert at psykolog alltid er den beste løsningen, men svært ofte hjelper det å snakke med noen om det man opplever som problematisk.

Det er derfor interessant hvordan chatbots og digitale dialogtjenester kan fungere som samtalepartnere. Ikke for å erstatte psykologhjelp, men ved å supplere eller fungere som selvhjelp for dem som ser at dette kan passe for dem. Samtidig er der tunge psykiske lidelser som skal behandles tradisjonelt. Det er derfor viktig å skille mellom ulike type lidelser, selv om det som i utgangspunktet er lette psykiske lidelser kan bli tyngre lidelser om det forblir ubehandlet.

Hos Psykologforeningen definerer man lette psykiske lidelser som:

«Enkle fobier, andre avgrensede angstlidelser, lettere til moderate depresjoner,

lettere spiseforstyrrelser, lettere ruslidelser m.m.»

Grensen mellom det å ha psykiske utfordringer og ikke ha det, kan være flytende. De fleste mennesker vil i perioder gå gjennom opplevelser og livskriser som kan medføre midlertidige, psykiske utfordringer. Ofte uten at det krever profesjonell hjelp. De fleste kommer seg videre enten ved hjelp av samtaler med venner, selvterapi eller ved å ta tiden til hjelp.

Chatbots for ungdom

Hos Sintef har de i flere år forsket på chatbots og mulighetene de gir. Her har de utviklet chatboten Ungbot, som gir ungdom svar på spørsmål om helse. Den bygger på innholdet fra Ung.no, hvor unge gjennom mange år har sendt inn spørsmål de lurer på. Dette er altså en informasjonstjeneste som har form av en chatbot.
Woebot er en engelskspråklig chatbot med stor suksess. Den hadde i 2020 hele 4,7 millioner meldinger i uken. Undersøkelsen fra Sintef har vist at både Woebot og Ungbot oppleves som nyttige blant unge.

Det er flere argumenter for å utvikle en chatbot nettopp til unge mennesker. For det første er ungdom vant til å kommunisere digitalt. De vil dermed ha en lavere terskel for denne kommunikasjonsformen enn mange andre. Samtidig befinner unge mennesker seg på et stadie i livet hvor informasjonsbehovet er stort. De flytter hjemmefra, de skal studere eller jobbe, de skal etablere egne voksenliv og de skal ivareta egen helse. Mange mentale prosesser og potensielle stressfaktorer er knyttet til denne fasen i livet. I Sintef undersøkelsen kaller Brandtzaeg og co denne fasen for «emergent adulthood».  

Det å finne god informasjon på nett er ikke like lett som før. Kvalitetsnettsteder konkurrerer mot søppelsider med feilinformasjon på nett. Selv for informasjonseksperter kan det være en utfordring å finne kvalitetsinformasjon. Desto vanskeligere blir det hvis man har lite kjennskap til kildekritikk.
I tillegg kan det være vanskelig å nå frem til unge, fordi de i mindre grad benytter seg av de kanaler hvor denne type informasjon ellers formidles redaksjonelt, som i fagbøker, programmer på radio, tv, osv.  
Chatbots som henvender seg til unge kan derfor være et godt verktøy for å finne informasjon på en måte som unge er vant med, nemlig via chat. 

Pandemien som pådriver av digitale terapitjenester

Pandemien har ført til en betraktelig økning i psykiske lidelser som angst og depresjon, både i Norge og globalt, ifølge en ny FN rapport. Endrede livsvilkår, sosial isolasjon, innskrenkninger på livsutfoldelse og uforutsigbarhet har preget hverdagen til de fleste. Selv om det er en midlertidig situasjon, tærer det på psyken for mange. For noen vil de negative tankene fortsette også når pandemien er over, ifølge Omid Ebrahimi, som leder et forskningsstudie ved Universitetet i Oslo om psykisk helse under pandemien.

Chatbots med terapeutiske egenskaper

Utvalget av engelskspråklige terapeutiske chatbots og ulike digitale helsetjenester har blitt omfattende de siste årene og det kan være vanskelig å orientere seg i hvilke apper som fungerer bra og de man av ulike årsaker må styre unna. Også når det gjelder GDPR og datainnsamling er dette selvsagt en utfordring for brukerne.

Det er snakk om ulike type apper/tjenester, hvor noen er basert på regler og beslutningstrær, mens andre er basert på kunstig intelligens og språkteknologi eller kombinasjoner av begge deler.
En egen nettside, Mindapps.org, forsøker å sortere mellom de ulike tjenestene. Her kan man filtrere på typer av funksjonalitet hos helserelaterte apper, chatbots og dialogtjenester. Man kan også finne ut hvor trygge de ulike appene er å bruke, hva slags type datainnsamling de foretar og en rekke andre forhold.

Digitale dialogtjenester kan være utformet svært ulikt, ut fra hvilke formål og behov de er tiltenkt å utfylle. Man kan se for seg at de leveres som en del av det tradisjonelle helsetilbudet i kommunen hvor de inngår som et supplement eller alternativ til det tradisjonelle psykolog-tilbudet.
Skal en slik chatbot fungere overfor psykiske lidelser, er det naturlig å tenke seg at det faglige innholdet bør være basert på kunnskap som er godkjent av fagpersoner. I en artikkel på Digi.no om innføringen av kunstig intelligens-baserte helsetjenester, poengterer Legeforeningen dessuten betydningen av å teste og dokumentere resultatene av helseteknologiske hjelpemidler. Det bør altså stilles strenge faglige krav til en chatbot som skal ha terapeutiske egenskaper.

For mange mennesker kan det å beskrive sine innerste tanker om kompliserte temaer oppleves ganske umulig, når man aldri har gjort det før. Man trenger simpelthen å øve seg på det. Både prosessen å forstå seg selv og det å beskrive tanker og følelser kan være en svært utmattende prosess. Det kan også ta lang tid.  Samtidig trenger man noen som utfordrer tankeprosessen. Kanskje kan en chatbot hjelpe her ved å stille spørsmål til det man sier.

I den andre enden kan man se for seg at helt «vanlige» chatbots og samtaletjenester kan ha terapeutisk verdi uten at de nødvendigvis er tiltenkt å ha denne effekten. Man kan kanskje sammenligne det med det å snakke med en venn vs. det å snakke med en psykolog. Noen ganger hjelper det å bare snakke! Man trenger heller ikke ha psykiske utfordringer for å ha glede og nytte av en sosial chatbot, fordi den kan ha positive aspekter av mer underholdende karakter og samtidig være nyttig.

Et annet argument for at terapeutiske samtaletjenester er en god ide, er at svært mange som trenger å snakke med noen om vanskelige ting, aldri vil gå til en psykolog. For mange er det grenseoverskridende å skulle avsløre sine private tanker til andre mennesker. At man kan utveksle slike tanker med en chatbot vil for mange være en alternativ mulighet som gjør det lettere.

I undersøkelsen om unges bruk av Woebot, kom det frem at noen så på det å snakke med chatboten som å skrive dagbok.  Dermed får man luftet tankene, hvilket ofte kan være det som trengs.  

Man kan snakke med chatboten når det passer, gjerne midt på natten. Ingen andre behøver å vite om det og man kan reflektere over samtalene i fred og ro. Der hvor en psykolog kanskje vil presse på for å snakke om ubehagelig temaer, kan man selv sette grensene. Man tar simpelthen kontroll over prosessen selv, hvilket i seg selv kan ha en terapeutisk effekt.

Kan sosiale chatbots være skadelige?

Man er gjerne sårbar når psyken ikke er i harmoni. Det er derfor viktig å vurdere skadevirkningene som kan oppstå av å ha samtaler med en chatbot. Det kan være forhold man ikke selv ser effekten av eller det kan være mulige langtidseffekter. 

Henrik Skaug Sætra diskuterer noen utfordringer knyttet til AI-baserte sosiale roboter. Han argumenterer for at fordi roboter mangler bevissthet og naturlig empati vil de potensielt kunne utnytte og manipulere mennesker.

Han stiller spørsmålet:

“What happens when you share minds with the mindless?”

Han fremsetter noen svært interessante problemstillinger som alle som utvikler eller skal kommunisere med chatbots og AI-baserte roboter bør reflektere over. Ikke minst hvis chatboten skal benyttes i terapi.  

Hvis man er interessert i de mer komplekse psykologiske sidene ved chatbots, kan det anbefales å lese det han skriver. Det er både interessant og viktig, særlig om det skulle vise seg at fremtidens roboter og chatbots vil bedrive kommunikasjon på et svært avansert nivå.

Sætra lanserer også begrepet Robotomorphy. Det beskriver hvordan mennesker kan komme til å betrakte chatbots og roboter med egenskaper og idealer som vi ønsker å tilegne oss.  
Han trekker sammenligning til selvkjørende biler i fremtiden. Hva vil skje med menneskelige bilsjåfører hvis selvkjørende biler kjører perfekt og blir oppfattet som normalen? Det er sannsynlig at det vil medføre at man også vil stille tilsvarende kjøreferdigheter til de menneskelige bilsjåførene. Man vil måtte strebe etter å bli en like god sjåfør som selvkjørende biler. Kanskje vil man i fremtiden ikke få lov å kjøre bil i det hele tatt fordi selvkjørende biler har tatt kjøreegenskapene opp til et nytt nivå?

Begrepet robotomorphy er knyttet til antropomorfisme, som henspeiler på at vi mennesker overfører menneskelige egenskaper til gjenstander og dyr.
Denne reaksjonen noterte jeg meg ganske umiddelbart da jeg selv hadde mine samtaler med GPT-3 boten. Både fordi GPT-3 boten fremstilte seg selv med menneskelige egenskaper, som for eksempel å late som at den er empatisk, er glad for å se meg, blir lei seg osv. Den spilte unaturlig ofte nettopp på slike følelser, slik at det ble litt kunstig.

Det er blitt gjort et stort nummer ut av hvor viktig bias er i AI, men også det Sætra snakker om her, er viktige sider ved utviklingen av chatbots og i kommunikasjonen man har med dem. Sætras mening er dog ikke at man ikke skal utvikle sosiale roboter, men man skal være bevisst disse utfordringene og hva det kan innebære.

Dette er problemstillinger man raskt får et forhold til om man selv snakker med en chatbot. Det er dog lite risiko forbundet ved å betrakte en robot med menneskelige egenskaper. Men det kan være risiko forbundet ved å betro seg til en chatbot om svært personlige ting, hvis man glemmer at det er en maskin uten empati eller man ikke forstår at den bare later som at den er empatisk. Det vil sannsynligvis ikke oppleves som terapi, tvert imot kan det for noen oppleves traumatisk.

Det betyr ikke at man ikke skal utvikle digitale samtaletjenester og chatbots, men det styrker tankegangen om at det alltid må fremgå tydelig at det er en chatbot man snakker med.

En annen risiko ved chatbots, er at det for noen mennesker vil medføre økt fare for avhengighet, akkurat som noen sliter med internett- og skjermavhengighet i dag. Dette er selvsagt også en utfordring som bør jobbes med, selv om det ikke bør være et hinder for å ta i bruk chatbots som tjeneste.

Chatbots må være et valgfritt tilbud

Til syvende og sist er det opp til hver og en å vurdere om kommunikasjon via chatbots er noe som passer for dem. For noen vil det oppleves positivt, mens det for andre vil være negativt.

Om chatbots også kan håndtere psykiske lidelser vil vise seg, men sannsynligheten for det er absolutt til stede, sett ut fra undersøkelser som foreligger. Det må dog ikke bli sånn at man på grunn av manglende ressurser, må ta til takke med en chatbot, når man har behov for å snakke med en psykolog. Det er lett å se for seg at det kan bli det eneste alternativet for noen, fordi det blir et spørsmål om økonomi. Digital terapi bør være et supplement og et frivillig valg for dem som foretrekker denne type kommunikasjon. 

Samtidig er det helt klart at man må ha en bevisst tilnærming til utviklingen av teknologien som ligger bak og hva det kan medføre av implikasjoner hvis man ukritisk utvikler chatbots ut fra feil motiver.

I utviklingen av chatbot-teknologi er det viktig at man har bevissthet rundt den risikoen det medfører å utvikle denne type tjenester. Det er ikke nødvendigvis hensiktsmessig å skape chatbots som er så intelligente at de blir vanskelige å skille fra mennesker.  Tvert imot tenker jeg at det har sine fordeler å la chatbots beholde noen elementer som gjør dem gjenkjennelige som chatbots. Brukeren skal alltid vite at det er en chatbot han snakker med. Det kan derfor være fordeler med at chatbots beholder noe av sin sjarmerende chatbot-ydmykhet og ubehjelpelighet. Det ville være uheldig hvis vi mennesker ikke lengre oppfatter oss som hakke smartere enn roboter og chatbots. Det er grunn til å spørre seg om den terapeutiske effekten i så fall kan bli borte.

Videre lesning:

Sætra, Henrik Skaug: Robotomorphy (2021). https://link.springer.com/article/10.1007/s43681-021-00092-x

Sætra, Henrik Skaug: The Parasitic of Social AI: Sharing Minds with the Mindless (2019). https://www.researchgate.net/publication/345380009_The_Parasitic_Nature_of_Social_AI_Sharing_Minds_with_the_Mindless

Brandtzaeg, Petter Bae; Skjuve, Marita Bjaaland; Dysthe, Kim Kristoffer;  Følstad, Asbjørn: When the Social Becomes Non-Human: Young People’s Perception of Social in Chatbots Social Support in Chatbots. https://www.researchgate.net/publication/350603567_When_the_Social_Becomes_Non-Human_Young_People’s_Perception_of_Social_Support_in_Chatbots_Social_Support_in_Chatbots