I november i fjor ble ChatGPT fra OpenAI gjort tilgjengelig for alle. Chattetjenesten har fått mye oppmerksomhet. I løpet av fem dager hadde den fått over 1 million nye brukere. Og nå, etter få måneder, skal den ha 100 millioner brukere. Samtidig ser flere andre og tilsvarende chatbots dagens lys, deriblant Microsoft Bing.
Det overraskende er, at det blir lagt opp til at disse chatbotene skal være en kunnskapsassistent, som skal gi svar på det man lurer på. Når chatbotene knyttes opp mot søketjenester innebærer dette en forventning om at de kan formidle korrekt og valid informasjon. Ettersom det raskt ble kjent at dette er blant chatbotenes største problem, er det interessant å se på hvor hensiktsmessig denne sammenkoblingen egentlig er.
Hva innebærer det å bruke chatbots som en informasjonskanal?
Dette innlegget vil derfor fokusere på hvilken betydning det har at chatbots blir koblet opp mot søketjenester. Hva innebærer det å bruke chatbots som en informasjonskanal? Hva kreves for at den kan utgjøre et nyttig verktøy?
Innlegget kommer til å ta utgangspunkt i ChatGPT fra OpenAI og BingChat fra Microsoft, fordi dette er de to chatbotene som er blitt tatt i bruk av flest folk så langt.
Chatbot – den nye kunnskapsassistenten
Microsoft har vært en betydelig teknologisk og økonomisk bidragsyter til OpenAI som står bak ChatGPT. Microsoft har nå også offentliggjort sin egen utgave, Bing Chat. Den er knyttet til søketjenesten Bing og fungerer som en forlengelse av nettsøket.
For å få tilgang må man bruke Microsofts egen nettleser Edge. Microsoft har i mange år slitt med å få brukere til Edge, arvtakeren etter Internet Explorer. På et tidspunkt kunne man lese at 1 million stod på venteliste for å teste Bing Chat.
Også Bing skal nå være oppe i 100 millioner brukere, mye takket være implementeringen av Bing Chat. Det er åpenbart at dette vil gjøre underverker for trafikken til både nettleseren og søketjenesten Bing.
Bing Chat presenterer seg som Bing, og supplerer med et svar, basert på søket man har gjort. Dette betyr at koblingen mellom søkeresultat og chat blir svært tett. Bing Chat henviser til ulike nettkilder undervegs, slik at man kan kontrollere dens kilder. Den kommer også med forslag til andre søk og lenker, for at man skal kunne forfølge det gitte temaet.
Her skiller den seg fra ChatGPT som svarer uten å oppgi kildedokumentasjon. ChatGPT består kun av dialogvinduet hvor samtalen foregår, og en oversikt over samtalene man har hatt. Den fremstår ikke som en søketjeneste, men har allikevel inntatt rollen som en kunnskapsassistent.
En vesentlig forskjell mellom Bing og OpenAI’s ChatGPT, er at innholdet den bygger svarene sine på, er oppdatert hos Bing. Hos ChatGPT blir det en stadig tilbakevendende utfordring at den ikke er oppdatert siden mai 2021.
Nå viser det seg at Bing Chat har benyttet den nyeste språkmodellen GPT-4 i en tilpasset utgave, mens ChatGPT fremdeles bruker GPT-3.5 Turbo. Man får adgang til GPT-4 hos OpenAI hvis man betaler.
Snart kommer Google med sin chatbot BARD, som er utviklet på Google’s språkmodell, LAMBDA. BARD er kun tilgjengelig for et mindre antall testere i USA og Storbritannia så langt. Også BARD skal være knyttet opp til Google søk, men Google presiserer at BARD skal være en idemyldrer, mer enn en søketjeneste, muligens for å tydeliggjøre at man enda ikke kan stole på alt den sier. Det er fremdeles uklart når BARD er klar til lansering.
En av de positive forholdene med denne utviklingen er at det omsider skjer endringer i søkebransjen. Ved at flere oppdager alternative søketjenester til Google, motvirker det også Google’s filterboble-effekt som filtrerer søkeresultatet ut fra gitte, personaliserte kriterier man ikke selv har kontroll over, som er en vesentlig årsak til problemene med ekkokammer og polariserte samfunn. Så er spørsmålet hvilken betydning implementeringen av chatbots i søk vil ha for ekkokammer og polarisering. Vil det påvirke og i så fall i hvilken retning?
Hvordan fungerer chatbots til informasjonssøk?
For få år siden var det ikke gitt at chatbots skulle introduseres i tilknytning til søketjenester. Forventningen var at de ville innta en mer psykososial rolle eller ha et mer underholdende formål. Nå er det ikke slik at det ene utelukker det andre; man kan snakke med alle de tre chatbotene som man vil. De løser oppgaver, svarer på nesten alle slags spørsmål og kan også inngå som en mer kognitiv samtalepartner.
Det vil nok være ganske individuelt hva man mener den fungerer best til. Men slik den er tilknyttet søketjenestene, så blir det åpenbart at det er som informasjonstjeneste det først og fremst er lagt opp til at den skal fungere. Min erfaring er at sistnevnte utgave av ChatGPT blir litt masete hvis man bare vil koseprate med den. Den vil helst bidra på en mer konstruktiv måte.
I mange tilfeller blir søkeopplevelsen mer verdifull og underholdende når man kan snakke seg til resultatet. Muligheten for å dykke ned i et tema ved å diskutere det, gir nye muligheter, men også nye utfordringer. Mens jeg i starten brukte den mest som underholdning, har jeg etter hvert inkludert den i research, som en sparringspartner, for å teste den, men også fordi den gir nyttig informasjon. Men; den gir også ofte feil svar og det er både energi- og tidkrevende å dobbeltsjekke det den sier. Derfor fungerer det best å stille spørsmål om forhold man allerede vet litt om, slik at man selv kan vurdere kvaliteten av det den sier.
Derfor fungerer det best å stille spørsmål om forhold man allerede vet litt om, slik at man selv kan vurdere kvaliteten av det den sier.
En del svar er ofte så gode og detaljerte at de kan brukes direkte uten redigering. Samtidig må man være klar over, at jo mindre man vet om temaet det blir snakket om, jo lettere er det å bli imponert. For hvem har egentlig stålkontroll på hva man vet og hva man ikke vet om et gitt tema?
Stiller man det samme spørsmål to ganger, formulerer den nytt svar hver gang. Alt er mulig, og printscreen-knappen blir fort din beste venn! Når man leser om at den består eksamensoppgaver til en A, er det derfor stor sannsynlighet for at den i neste forsøk presterer helt annerledes.
Men i all hovedsak svarer den imponerende godt og når svaret er vellykket, kan det være vanskelig eller umulig å gjennomskue at det er auto-skrevet tekst.
Det blir også klart at mange som bruker ChatGPT ikke forstår hvordan teknologien fungerer, ergo kan man ha urealistiske forventninger til svarene. Når det samtidig publiseres beskrivelser av at ChatGPT besvarer eksamener nesten til perfeksjon, oppstår det et vakuum mellom hva man forventer at den skal klare og de svarene man rent faktisk får ut av den. Ut av de mange beskrivelsene man hører fra andre brukere, kan det se ut til at den eksempelvis fungerer bedre som programmeringsassistent enn som en veileder i livet om moralske spørsmål.
Den kulturelle utfordringen
Man må ta høyde for at ChatGPT kan svare forskjellig avhengig av språk og globalt utgangspunkt. Selv om den svarer på mange språk, kommer vi ikke unna at den har en amerikansk/vestlig kulturbakgrunn, i form av at innholdet i stor grad er samlet inn fra engelskspråklige nettsider.
Man mener at dette er en medvirkende årsak til at den ikke besvarer norske faktaspørsmål så godt. Den mangler nettsider om norsk kultur og samfunnsliv fra et norsk perspektiv. Dette kommer fram i et seminar på Universitetet i Bergen, hvor Jill Rettberg holdt foredrag. Hun fortalte også at Nasjonalbiblioteket ble spurt av OpenAi om å bidra med norsk innhold, men på grunn av reglene rundt kopirettighetene, var Nasjonalbiblioteket nødt til å takke nei, selv om de har store datamengder på norsk som ville være relevant å putte inn i ChatGPT’s datagrunnlag.
Selv om den svarer på mange språk, kommer vi ikke unna at den har en amerikansk/vestlig kulturbakgrunn, i form av at innholdet i stor grad er samlet inn fra engelskspråklige nettsider.
Mine spørsmål om bøker av norske forfattere, avslører mange feil. Her konstrueres falske titler over en lav sko og avslører at den overhodet ikke er til å stole på. Dog skal det sies at Bing Chat er bedre enn ChatGPT på dette området. Men det er vanskelig å si om det faktisk er en gjennomgående kvalitetsforskjell eller om det beror på tilfeldigheter. Men fordi Bing Chat faktisk gjør et søk i søketjenesten Bing, kan det tyde på at den er flinkere til å finne riktig svar i denne type faktaspørsmål.
En ting jeg blir gledelig imponert over, er dens evne til å oversette fra engelsk til norsk. Sammenlignet med Google Translate gir den ofte bedre oversettelser, hvor begreper blir tolket ut fra den sammenhengen de er benyttet. Mitt inntrykk er at man slipper noen av de litt håpløse begrepsoversettelsene som Translate sliter med.
Personvern
En annen utfordring er knyttet til personvernet ved bruk av chatbots. Ingen er anonyme når man chatter, fordi man er tvunget til å være logget inn for å bruke tjenesten. Det er mange gode grunner til at det gir mening å være logget inn, både for å lagre samtaler og fordi det muligens begrenser ondskapsfull uttesting av tjenesten. Ikke desto mindre betyr det også at all dialog man har hatt kan kobles til egen profil. Mange kan komme til å avsløre tanker eller opplysninger av privat karakter som ikke er ment for andre. Hva som skjer med samtalen når man har tastet den inn, har man ikke oversikt over.
Det er derfor også verdt å tenke over hva denne lagringen kan medføre på sikt. På hvilken måte brukes innholdet til å videreutvikle tjenester og språkmodeller? Det vet man lite om. Vil innholdet utnyttes i en senere kommersialisering, hvor man vil få annonser basert på samtalene man har? Ettersom dette er leverandører som allerede har mye data om brukerne sine, hvordan kan samtaledata kobles mot resten av brukerdataene?
Allerede nå har Klarna tatt i bruk ChatGPT hvor de har implementert kommersiell shopping-funksjonalitet overfor deres amerikanske kunder. De skal kunne snakke seg til gode shoppingtips ifølge Klarnas pressemelding.
Er en sannferdig chatbot overhodet mulig?
Samtidig som mange er imponert over dens evne til å skape underholdende fortellinger, går en vesentlig del av kritikken på at den ikke klarer å svare rett på faktaspørsmål. Men forventer altså at den både skal være kreativ når det gjelder historiefortelling, men man krever sannferdighet når den skal besvare faktaspørsmål.
For å kunne skape fortellinger ut fra fri fantasi, må den kunne fortelle usannheter. Teknologien bak har ingen forutsetning for å skille mellom sannhet og løgn.
Her er der en logisk brist. For å kunne skape fortellinger ut fra fri fantasi, må den kunne fortelle usannheter. Teknologien bak har ingen forutsetning for å skille mellom sannhet og løgn. Teoretisk sett kan man se for seg at den burde finne svaret i innholdet den er bygget på. Men i praksis er der ingen en-til-en kobling mellom et gitt spørsmål og et gitt svar.
Men i vår bevissthet, har mange spørsmål kun et riktig svar, for eksempel spørsmål om en forfatters bokutgivelser. Man kan derfor godt argumentere for at dette skal den klare å svare riktig på.
Allikevel kan også faktaspørsmål variere etter tid og sted. Man kan se for seg at chatboten svarer ut fra amerikanske forhold om hvilke bøker en forfatter har gitt ut der, mens vi forventer svar ut fra utgivelser i Norge. Selv om mange spørsmål kun har et korrekt svar, risikerer man også at mange spørsmål kan romme flere svarmuligheter, fordi fakta kan endre seg etter tid og sted.
Leser man OpenAI’s dokument om GPT-4, kan man se hvilken utvikling ChatGPT har gått fra tidligere modeller til GPT-4. Man kan lese hvilke oppgaver den blir gitt og hvordan siste versjon svarer langt mer passende enn tidligere utgaver.
Naturligvis jobbes det også med å utvikle en mer sannferdig chatbot. Klarer man å skape en chatbot som er mer pålitelig, har man løst det største problemet. Men i praksis er det vanskelig å se for seg hvordan man skal få det til.
Hvordan oppleves det å snakke med en chatbot som alltid har rett? Er ikke dialog en utveksling av meningsytringer? Hva skjer hvis den ene parten alltid er skråsikker og definerer sannheten? Hva skjer med motparten som søker informasjon? Blir vi sittende igjen som en novise, som belæres av chatboten?
Vil chatbotene skape nye sannheter?
Hvis ikke man finner sikre metoder for å sørge for at ChatGPT holder orden på hva som er fakta og hva som er usant, kan man risikere at usannheter over tid går over til å bli fakta.
Hele prinsippet til den kildekritiske metodikken er at man har flere, sikre kilder man kan dobbeltsjekke usikker informasjon opp mot. I dag finner man også disse kildene på Internett. Store Norske Leksikon(SNL) er selve ryggraden i norsk fag- og forskningsformidling, mens Wikipedia er en annen kilde som også regnes som en pålitelig faktakilde, til tross for at hvem som helst kan publisere og redigere artikler der. At artikkelforfatter kan være anonyme blir ansett som kritikkverdig, fordi det utgjør en viss risiko for subtil feilinformasjon. SNL skiller seg fra Wikipedia ved at den har fagredaktører innenfor hvert område som sikrer kvaliteten i innholdet før publisering. Wikipedia er også en av kildene som ChatGPT bygger sitt innhold på, selv om det kun utgjør en liten del av det totale datagrunnlaget hos ChatGPT. Men også forfattere av leksikon må hente sin informasjon fra et sted og man kan frykte at dette kan medføre en utvanning av sannheten over tid.
I Norge, som i flere andre land, har man pliktavleveringsloven som krever at alle utgivelser blir levert til Nasjonalbiblioteket. Det gjelder alle type medier, også nettproduksjon. Pliktavleveringen kan betraktes som en sikkerhetskopi av alle publiserte dokumenter. Dette er en lov mange land har, dog langt fra alle. Uansett, dette er ingen garanti for at ikke feil kan snike seg inn, men man skulle gjerne håpe at det minimerer risikoen.
Vanlig søk har også kvalitetsutfordringer
«Det ligger mye makt i evnen til å sortere, rangere og fremheve informasjon». Dette sier Bente Kalsnes og Lene Pettersen i en artikkel om sortering av informasjon.
«Det ligger mye makt i evnen til å sortere, rangere og fremheve informasjon».
Det å finne den mest korrekte informasjonen i et gitt øyeblikk er en utfordring for både algoritmer, chatbots og mennesker. Alle som søker etter informasjon på Internett, vet at søkeresultatene varierer i kvalitet. Dagens søketjenester er preget av mye personaliseringsalgoritmer som viser deg det de tror du vil se. På noen områder fungerer det bra, på andre fungerer det dårlig, akkurat som det varierer etter hvilke kompetansenivå man selv besitter om søk og om temaet man søker etter.
Man kan si at søk via en søketjeneste og samtale med en chatbot gir noen av de samme utfordringene, hvor hverken søkeresultater eller chatbot-svar bør tas for gitt, akkurat som man ikke alltid stoler på det andre mennesker sier.
Den eksponentielle utvikling i praksis
Akkurat nå skjer utviklingen på chatbots og språkmodeller (LLM- Large Language Models) så raskt at det som var et problem for et par måneder siden, allerede kan være løst, mens det som ikke tidligere var et problem, nå plutselig kan være det. Det som i november var en språkmodell GPT-3.5 med en del begrensninger, er i mars blitt GPT-4 som skal være en så potent språkmodell, at OpenAI har lansert den i en redusert utgave.
Dette har medført at mange teknologieksperter har foreslått at man setter utviklingen på vent i et halvt år, mens man diskuterer fornuftige retningslinjer for utviklingen videre. Forslaget kan også være et resultat av en IT-bransje som kjenner på de kommersielle implikasjonene det medfører å plutselig henge etter en nykommer som Open-AI. Det kan jo minne om da Google var nykommeren i bransjen. Men uansett høres det ut som en veldig god ide. Strengt tatt burde det vel allerede vært gjort.
De langsiktige samfunnskonsekvensene
Kunstig intelligens teknologi, språkmodeller og de konkrete verktøyene som chatbots er et eksempel på, er tett knyttet sammen. Chatbots kan virke uskyldige og nyttige og de har uten tvil en rekke fordeler, som gjør at man må håpe at de er kommet for å bli. Man kan betrakte dem på individinivå hvor de er nyttige for folk i ulike settinger, enten privat eller i jobbsammenheng. Men de må også betraktes i et samfunnsperspektiv.
Hva medfører de i et kulturelt perspektiv? På et globalt perspektiv? I et økonomisk perspektiv? Mange frykter at det innebærer at mange vil miste jobbene. Andre mener at det vil skape nye jobber eller gjøre eksisterende jobber enklere. Noen påstår at de betyr slutten på kapitalismen. Alt sammen er omstendigheter vi ikke makter å se i dag. Det spesielle med teknologien som språkmodellene bygger på, er at den kan få så vidtrekkende konsekvenser. Man kan utvikle den med en hensikt, mens noen andre senere tar den i bruk med helt andre hensikter.
I en artikkel av Bram Timmermans, argumenteres det for at vi ikke har forutsetningen for å forstå rekkeviddene av hva dette innebærer i et videre perspektiv. Den største utfordringen med ansvarlig, kunstig intelligens, er ikke at de fleste teknologiledere og deres selskaper mangler moralske prinsipper. Utfordringen er at de mangler moralsk forestillingsevne, sier han.
«Den største utfordringen med ansvarlig, kunstig intelligens, er ikke at de fleste teknologiledere og deres selskaper mangler moralske prinsipper. Utfordringen er at de mangler moralsk forestillingsevne». (Bram Timmermans)
Avsluttende tanker om den videre utviklingen
For få måneder siden hadde jeg ikke trodd at ChatGPT skulle bli en kunnskapsassistent som skal supplere informasjonssøk. Fra et underholdningsperspektiv er det en opptur å kunne gjøre research og finne informasjon på denne måten. Fra et informasjonsfaglig perspektiv blir det en mer ambivalent opplevelse. Når man kobler chatbots opp mot informasjonssøk, forventer man korrekte og relevante svar.
Samtidig innser man at slike krav er urealistiske å oppnå med de forutsetningene den bygger på, i hvert fall på nåværende tidspunkt. Dermed krever det at brukeren av slike tjenester, har den kildekritiske knappen skrudd på hele tiden. Hvis denne type tjenester får like stor utbredelse som vanlig nettsøk har i dag, uten at man klarer å håndtere kvalitetsutfordringen, vil det nødvendigvis innebære at en god del brukere vil bli ført bak lyset. Men det kan også være at det vil tvinge frem en økt kildekritisk kompetanse hos flere, fordi ingen egentlig ønsker å bli lurt.
Mitt inntrykk er at den fungerer best som en sparringspartner om temaer man selv vet noe om fra før. Dermed lærer man noe nytt, på en ny måte, samtidig som man er til stedet i teksten og er nødt til å reflektere over sannhetsgehalten i innholdet.
Mitt inntrykk er at den fungerer best som en sparringspartner om temaer man selv vet noe om fra før. Dermed lærer man noe nytt, på en ny måte, samtidig som man er til stede i teksten og er nødt til å reflektere over sannhetsgehalten i innholdet.
Ved å være en chatbot som skal svare på alle slags forespørsler og oppgaver, blir det mange utfordringer som skal håndteres på en gang. Sannsynligvis vil utviklingen gå mot mer tilpassede løsninger som passer til sitt spesifikke behov. For eksempel som et verktøy for programmerere. Eller som tekstverktøy for skribenter, hvor språkmodellen er utformet med tanke på kreativ historiefortelling. Eller i en mer nøktern versjon som i større grad har faktakunnskap, slik at den faktisk kan fungere som en kunnskapsassistent. Microsoft har allerede begynt på å implementere Bing Chat i noen av sine verktøy.
Det er også blitt foreslått å merke innhold hvor ChatGPT har vært brukt. Men det er en utfordring å skulle merke tekst som er produsert som en interaksjon mellom ChatGPT og skribent. Kanskje kan man utvikle forhåndsdefinerte kategorier basert på grader av interaksjon med ChatGPT, og en merkeordning som tar høyde for graden av interaksjon.
Det pålegger samtidig leverandørene av tjenestene et ansvar. Det er helt avgjørende for den videre utviklingen at man faktisk kommer frem til forsvarlige retningslinjer for bruk og tilgjengeliggjøring. Når teknologi skaper så stor usikkerhet at folk ikke vet i hvilken retning det bærer, blir det desto viktigere å skape rammer rundt teknologien som sørger for at det går i riktig retning. Det er vi mennesker som setter regien i forhold til teknologien og slik skulle det gjerne også forbli i fremtiden.