Save the world – kill the people?

Et stadig tilbakevendende spørsmål når det gjelder kunstig intelligens, er om denne teknologien truer oss som mennesker. Vi har tidligere vært inne på faren for at roboter og ulike typer AI-teknologier kan ta jobbene fra oss. Det er åpenbart at den teknologiske utviklingen vil medføre store endringer i arbeidslivet, og at en del jobber og bransjer allerede holder på å bli erstattet eller supplert med roboter og kunstig intelligens-basert teknologi. Det er også sannsynlig at dette vil gi nye arbeidsoppgaver til mennesker, det betyr derfor ikke at vi behøver å bli overflødige. Man kan derfor regne med at den teknologiske utviklingen vil ha negativ betydning for noen, mens det for andre vil være positivt.

Det man må være klar over, er at AI-teknologi handler om svært mange forskjellige type teknologier som opererer innenfor mange områder og med mange ulike formål. Det er teknologi innenfor det som kalles AIS – Artificial Super Intelligence det først og fremst er snakk om når flere forskere og IT eksperter åpenbarer sin skepsis. Dette dreier seg om selvlærende algoritmer basert på neurale nettverk – nettverk som etterligner menneskehjernen og som hypotetisk sett kan utvikle en enorm kraftig intelligens som langt overgår oss mennesker. Intelligens-begrepet handler om evnen til rasjonell tenkning; å fatte beslutninger, legge planer og konkludere. Slike superintelligente dataprogrammer kan deretter implementeres i fysiske roboter eller i andre type fysiske enheter.

Det er uansett langt frem før AIS-teknologien kan true oss på noen måte, men mange eksperter filosoferer over temaet for hva det kan medføre for oss mennesker hvis dataprogrammer skulle eskalere i en slik retning. Videre filosoferer de over at roboter kan utvikle bevissthet og en egen vilje. Dette kan igjen medføre at de utvikler et overlevelsesinstinkt som medfører at de vil utrydde menneskene, fordi de oppfatter oss for en trussel. Med andre ord, vi har her tatt skrittet inn i en science fiction-tankegang vi tidligere kun har sett på film.

Om dette skulle være mulig, er det fra et psykologisk perspektiv interessant å spørre seg hvorfor noen mennesker er villig til å utvikle teknologi som man frykter skal utrydde oss. Det må betegnes som en logisk brist, at vi ved å utvikle smartere programvare enn oss selv, risikerer å sette oss selv i en posisjon hvor vi både kan bli truet fysisk og truet på intelligensnivå. Hvor intelligent er det? Nå kan man innvende at det ikke er de som jobber med teknologien som bekymrer seg. Det er de andre. Samtidig forteller historien oss at vi mennesker kan ha høy grad av risikovillighet når det står ting på spill, enten av utviklingsmessige eller politiske forhold.

Bekymringen for superintelligensen er dog seriøs og kommer fra anerkjente eksperter som blant annet Bill Gates, Elon Musk og Stephen Hawking. Filosof Nick Bostrom har skrevet boken Superintelligence som filosoferer rundt de teoretiske mulighetene og advarer mot risikoen dette kan medføre. En av forutsetningen for at superintelligens kan bli mulig, er at datamaskinens utviklingshastighet fortsetter i tråd med Moores lov, hvor kapasitet og hastighet dobles for hver 18. måned. Dette er ikke en selvfølge at vil fortsette i fremtiden, selv om det har vært en realitet siden den ble fremsatt av Gordon Moore i 1965.

En som inntar et mer jordnært standpunkt er Morten Irgens, som med doktorgrad i kunstig intelligens tviler på at superintelligens er mulig, selv om han har oppfordret til å utvikle juridiske bindende avtaler mot å utvikle såkalte autonome våpensystemer, for å sikre at man ikke benytter kunstig intelligens i våpenindustrien.

Man trenger ikke særlig innsikt i hverken kunstig intelligens eller våpenindustri for å forstå at regler på dette området er svært hensiktsmessig. Både fordi automatisering gjør det lettere for uvedkommende å håndtere teknologien utenfra og fordi ytterligere teknologisk utvikling på våpenfronten er det siste vi trenger i en verden preget av utfordringer.

Det er vanskelig å se for seg at en eskalerende kunstig intelligens-utvikling skal utgjøre en slik risiko for mennesker. Da med mindre man med hensikt tilfører AI-enheter fysiske egenskaper med en tiltenkt funksjon som er ment å skade, slik autonome våpensystemer er et eksempel på. Selv om en robot eller datamaskin skulle få implementert svært høy kunstig intelligens og være i stand til å tenke ut strategier og foreta beslutninger, trenger den fremdeles fysiske egenskaper og praktiske ferdigheter for å kunne overføre strategier til handling, skulle man tro.

Kanskje kan man se for seg at AI-enheter i form av fysisk robot eller tilsvarende maskin, kan utvikle manipulatoriske egenskaper som gjør at de kan overbevise mennesker om å begå onde handlinger. Eller at de kan hacke seg inn på enheter som kan brukes som våpen. Droner, for eksempel. Eller selvkjørende biler. Men i utgangspunktet, er det altså vanskelig å se for seg at roboter skal utgjøre noen stor praktisk fare. Erfaringsmessig er det vi mennesker som begår dumheter og onde handlinger.

Det som høyst sannsynlig blir en langt større utfordring er å skulle samhandle med roboter, hvis de faktisk skulle utvikle bevissthet og intelligens. Hvilke etiske utfordringer kan dette gi? Hvordan skal roboter behandles ift. mennesker? Skal de være likestilte? Vi mennesker har som kjent en kjip og tragisk historie hva gjelder behandlingen av hverandre, eksempelvis gjennom utnyttelse av gratis arbeidskraft. Hvis roboter utvikler egen vilje, bevissthet og intelligens, vil de vel protestere mot å gjøre jobben for oss? Vil de kreve likebehandling og lønn for jobben de utfører? Er det en ting som virker temmelig fast bestemt i utviklingsplanene for AIS-basert teknologi er det at disse individene skal utføre jobber for oss så vi slipper.

Ikke nok med at man må bekymre seg for vår egen overlevelse, så må man også bekymre seg for robotens ve og vel. For meg fremstår det klart at eneste løsning på dette er å sørge for at man ikke utvikler roboter mer intelligente enn at de er for maskiner å regne og kan termineres uten at man skal få skyldfølelse av det.
Den dagen de oppnår bevissthet vil de vel gi oss flere bekymringer enn nytte?

I den grad AI-teknologi allerede er tatt i bruk, er en av de største utfordringene at den preges av vår egen utilstrekkelighet, i form av urettferdige algoritmer. Er det sannsynlig at en robot med høy intelligens og bevissthet skal bli noe bedre enn mennesket som har skapt den? Eller vil det bli den etiske og politisk korrekte roboten som skal fortelle oss mennesker når vi behandler hverandre dårlig? Er det robotene som skal redde oss fra våre egne klimaødeleggelser?
Eller vil robotene gå til krig mot oss fordi de ser oss som en trussel mot egen overlevelse? Vil de ta oss ut fordi vi for dem er mislykkede og primitive? Jeg klarer ikke helt å se for meg noen av disse scenariene, selv om de er underholdende å tenke på.

Jeg frykter at roboter, selv om de vil utgjøre en vellykket teknologi som bidrar til å avløse både enkeltmennesker og bidrar positivt på samfunnsnivå, blir en teknologi for de få og de ressurssterke. De kan medføre at klasseskiller blir større, både nasjonalt og globalt. Det er garantert ikke de som jobber hardest eller som trenger avlastningen mest som vil stå først i køen til å utnytte denne teknologien.

Selv om superintelligente roboter fremdeles kun er en teoretisk mulighet, ser det ut til at katten eller roboten allerede er ute av sekken, når det gjelder den selvlærende roboten. Om enn den fremdeles er en sjeldenhet som kun eksisterer i forskerlaboratoriene og i IT-reportasjene. De robotene som blir presentert for mediene har enn så lenge ikke imponert så veldig, selv om vi synes de er søte, artige eller rare. Men teknologien er der, vi vet bare ikke helt hvor langt den kan ta oss.

Selv om forskere og eksperter på området diskuterer strategier for robot-utvikling, jobbes det i kulissene mange steder hvor man ikke lar seg stoppe av etiske resonnementer, filosofiske tilnærminger eller fryktbaserte forestillinger om vår egen potensielle utrydning.

Umiddelbart synes jeg det er mye som tyder på at vi mennesker er en større fare for oss selv og hverandre, enn noen superintelligens noensinne vil bli.

Et mantra som går igjen for tiden, er at vi er selv ansvarlige for å skape vår egen fremtid. Med andre ord, det nytter ikke å sitte på sidelinjen og frykte utviklingen, man må selv være med å skape den fremtiden man ønsker, ved å involvere seg, holde seg oppdatert og ta ansvar.