Kunstig intelligens: en ny teknologi eller et paradigmeskifte?
I sin rykende ferske digitaliseringsstrategi Fremtidens digitale Norge har regjeringen lansert et mål om at 80 prosent av offentlige virksomheter skal ha tatt i bruk kunstig intelligens (KI) i løpet av 2025, og 100 prosent innen 2030. Det er ikke tvil om at KI har et stort potensial og kan være med å løse flere av de store utfordringene vi står ovenfor. Samtidig ser vi allerede flere utfordringer knyttet til bruken av KI. Det er også stor usikkerhet knyttet til hva KI vil bety for samfunnsutviklingen på sikt. Er KI bare enda en ny teknologi, eller ser vi konturene av et paradigmeskifte?
KI med fokus på bruker og verdi
Det er stort strekk i laget når det gjelder bruk av KI i offentlig sektor. Ifølge Riksrevisjonenes gjennomgang av bruk av KI i staten Dokument 3:18 (2023−2024) er det veldig ulikt hvordan virksomhetene utnytter mulighetene, og det er fortsatt lite i bruk. Uansett; fart kan være fint, men ikke uten mål og mening – og særlig ikke hvis man går i feil retning. I årets siste D-box nettverksmøtet satte vi KI på dagsorden med fokus på bruker og verdi, og vi stilte oss spørsmålet: Hvordan forholder vi oss til KI og hvordan bruker vi det? Formålet var å få et bilde av tingenes tilstand både når det gjelder praktisk bruk, reguleringer og vår forståelse av fenomenet både på individnivå, organisasjonsnivå og samfunnsnivå. Vi brukte også tid på å utforske sammenhenger mellom disse områdene og nivåene, og hvordan de påvirker hverandre, både tilsiktet og utilsiktet. Joakim Formo, førsteamanuensis fra Arkitektur- og designhøyskolen i Oslo (AHO) innledet derfor med å presentere en modell som støtte til diskusjon og refleksjon gjennom dagen, med tanke på hvordan ‘forståelse’ utvikles på ulike nivåer.
Tre eksempler på bruk av KI i offentlig sektor
I første bolk delte noen av medlemmene i nettverket sine erfaringer med bruk av KI. Helsedirektoratet fortalte om hvordan de bruker KI til å gi foreldre med alvorlig sykt barn enklere tilgang til informasjon. Skatteetaten viste hvordan de får hjelpe til arkivering ved bruk av KI og maskinlæring og Politiet fortalte om hvordan de bekjemper seksuelle overgrep ved bruk av KI og ansiktsgjenkjenning. Eksemplene viser at det er stor variasjonen i hvordan KI brukes i offentlig sektor. Samtidig viser de hvor relevante løsningene er for store deler av offentlig sektor. Alle i offentlig sektor må arkivere, nesten alle offentlige aktører har oppgaver (og utfordringer) knyttet til å gi brukere og innbyggere enkel, helhetlig og korrekt informasjon og mange ville kunne dra nytte av ansikts-/bildegjenkjenning. Det var derfor flere som stilte spørsmål ved hva som gjøres for at ikke alle løper av gårde og lager egne løsninger hvis det kan være hensiktsmessig å utvikle noe sammen som flere kan bruke?
KI kan gi stor verdi
En undersøkelse gjennomført hos foreldre til alvorlig syke barn viser at de i gjennomsnitt bruker 19 timer per uke på administrasjon. Det vil derfor være til stor hjelp for disse foreldrene om de kan få mer helhetlig og brukervennlig informasjon, enklere og raskere. Skatteetaten har gjentatte ganger fått kritikk for dårlig praksis innen arkivering og journalføring av dokumenter – og dette er de ikke alene om. Et eksperiment viste at KIs klassifiseringsevne knyttet til arkivering og journalføring er høyere enn de ansattes vurderingsevne, og betydelig raskere. Det betyr at bruk av KI skaper verdi i form av effektivisering og økt etterlevelse av lover og regler. Vi fikk også høre om hvordan KI som støtte i identifiseringsarbeidet i bekjempelse av seksuelle overgrep mot barn har vært til stor nytte. Ved å bruke ‘One Click Hosting’ har politiet fjernet mer enn 56.000 lenker med overgrepsmaterial fra internett (270.000 filmer og 3.000.000 bilder). Løsningen er blant finalistene i The Europol Excellence Award in Innovation. Og gjennom bruk av KI og ansiktssøk, klarte politiet å identifisere 186 barn i en av norgeshistoriens største overgrepssaker. Uten denne metoden har Nordland politidistrikt anslått at man kunne ha identifisert fem barn.
KI løser ikke alle utfordringer - og særlig ikke de tverrsektorielle
Men til tross for at KI skaper verdi er det også flere utfordringer knyttet til bruk av KI. For det første er det ikke sånn at KI er en trylle-teknologi som kan løse ALT. KI har kapasitet til å sortere og navigere når informasjonstilfanget er stort, men den klarer ikke å fange opp om innhold er utdatert. Den klarer heller ikke å vurdere hvilken informasjon den bør vektlegge hvis det er ulike budskap på ulike nettsteder. Gjennom arbeidet med alvorlig sykt barn har det også vist seg at teknisk vedlikehold av KI er mer sammensatt og kostbart enn for tradisjonelle løsninger. For det andre er det ikke nødvendigvis så lett å få de rammebetingelsene man trenger for å utvikle brukerrettede og helhetlige tjenester, og det gjelder særlig når arbeidet er tverrsektorielt. Helsedirektoratet fortalte om flere tverrsektorielle utfordringer i deres arbeid med enklere informasjon til foreldre med alvorlig sykt barn. Det dreier seg om alt fra at eksisterende tekniske løsninger i stor grad er sektorvise, at det mangler finansiering og at det ikke er gitt tydelige nok felles føringer om at arbeidet skal prioriteres. Helsedirektoratet har fått hovedansvaret for arbeidet, og dette er tydelig forankret i deres tildelingsbrev, instrukser og budsjettproposisjoner, men det er ikke gitt like tydelig forventninger til de andre aktørene som må være med for å kunne levere tjenesten. Prosjektet bruker derfor mye av tiden sin på forankring og på å jakte finansiering. Dette er tid som heller burde vært brukt på å lage gode tjenester til brukerne. Det er også krevende å skape varige strukturer for drift og forvaltning av tverrsektorielle løsninger.
For det tredje er det flere juridiske og etiske utfordringer knyttet til bruk av KI.
Ansvarlig bruk av KI: både på kort og lang sikt
Det er flere kjente juridiske og etiske utfordringer knyttet til bruk av KI: diskriminering, ivaretakelse av menneskerettigheter, personvern mm. Samson Yoseph Esayas, førsteamanuensis ved Institutt for rettsvitenskap og styring ved BI, ga oss en smakebit på hva man må tenke på hvis man skal bruke KI på en ansvarlig måte, og tok utgangspunkt i sitt master-program om dette: Responsible AI Leadership. Vi hadde også invitert Pardis Shafafi, Global Responsible Business Lead ved Designit til å fortelle om deres arbeid med å tilpasse sitt «Do No Harm» rammeverk til ansvarlig bruk av KI. Pardis var tydelig på at det ikke handler om å stoppe bruk av KI, men å identifisere risiko og iverksette hensiktsmessige tiltak. Det gjelder skade som kan skje med individer, men også skade for samfunnet og naturen, eller av mer transcendent karakter: bakenfor, utenfor, eller hinsides all menneskelig erfaring. Det er også avgjørende å ikke bare ha fokus på skade som oppstår på kort sikt, men forsøke å identifisere skade som kan oppstå på lang sikt.
Fra brukerforståelse til samfunnsperspektiv
Joakim Formo, førsteamanuensis ved institutt for design på Arkitektur- og designhøgskolen i Oslo, ga et innblikk i hvordan vår forståelse av digital teknologi formes gjennom hvordan vi gir den form. Hvilke metaforer vi velger for å forklare hvordan vi kan bruke forskjellige funksjoner er så velkjent fra datamaskiner at vi nesten ikke tenker på at objekter som "mapper", "filer", "skrivebord" og "vinduer" bare er grafiske representasjoner av konsepter vi ellers måtte ha lært maskinkode for å kunne bruke. Den underliggende, delvis ubevisste forståelsen vi får på kjøpet er at en datamaskin, på sitt mest grunnleggende, er et "kontor" med tilhørende kontorutstyr.
Også fra et designperspektiv er det noe som gjør KI radikalt annerledes — og da spesielt generativ KI som vi interagerer med ved å bruke naturlig språk. Det er en teknologi der metaforene vi bruker for å gi den form ikke lenger handler om objekter, men om subjekter: Når metaforen for bruk er 'samtale' og den mentale modellen for hvordan teknologien fungerer er 'tenking', blir den grunnleggende (ubevisste) konseptualiseringen av teknologien en "person". Joakims poeng var derfor at med språkbasert KI tar vi et stort sprang i måten vi forstår teknologi på, fra å forholde oss konseptuelt til teknologi som 'verktøy' til å konseptualisere den som 'individ'. Joakim utfordret oss til å tenke over konsekvensene av dette på lengre sikt. Forståelsen vi utvikler som individuelle brukere av teknologi forplanter seg oppover i systemet til hvordan vi forholder oss til og regulerer KI som samfunn. Derfor må vi ikke bare tenke på å bruke KI mest mulig, men også utvikle bevissthet og kunnskap om 'kunstige relasjoner', 'kunstig ansvar', 'kunstige forpliktelser', 'kunstige rettigheter' og andre moralske forvirringer som lett kan oppstå når vi personifiserer KI på den måten vi gjør.