
Debatten om kunstig intelligens (KI) i offentlig sektor er ofte preget av ytterpunkter. KI blir enten fremstilt som en revolusjonerende løsning på alle utfordringer eller avfeid som upraktisk, overvurdert og utrygg. Vi mener at en ansvarlig KI-debatt krever at teknologileverandører anerkjenner bekymringer og bidrar til informerte valg. Her er tre sikkerhetsutfordringer vi ofte hører om, og hva du bør spørre om før du implementerer nye løsninger.
KI er en sikkerhetsrisiko og deler dine data
En av de mest kritiske problemstillingene vi møter i diskusjoner om KI i offentlig sektor, er at KI utgjør en sikkerhetsrisiko og ikke egner seg for håndtering av sensitive data. Mange frykter, med god grunn, at KI-systemer kan dele informasjon med andre land, være sårbare for lekkasjer eller brukes til overvåkning.
Dette er kritiske utfordringer, men er ikke unike for KI og kan håndteres riktig med gode valg. Disse utfordringene er ikke fundamentalt annerledes enn de offentlig sektor allerede har håndtert i sine IT-systemer i flere tiår. Forsvarlig KI-implementering krever derfor grundige risikovurderinger og tydelige datatilgangsprotokoller.
Teknologien må utvikles på en måte som oppfyller regelverk for personvern og behandling av data, og sikrer at dataene forblir innenfor trygge jurisdiksjoner. Vår plattform, for eksempel, har blitt kjørt gjennom Datatilsynet sitt sandkasseprosjekt rundt trygg og lovlig prosessering av personopplysninger og kan kobles på personlige e-poster. Selv om vi bruker språkmodeller som OpenAI, så lager vi egne lukkede miljøer slik at dataene er forvart innenfor norske og europeiske grenser. Derfor er det avgjørende å stille de rette spørsmålene før man tar i bruk KI, slik at teknologien implementeres på en måte som ivaretar både sikkerhet og personvern.
Her er spørsmålene som bør stilles:
|
KI hallusinerer, og kan ikke stoles på
En annen reell bekymring er at KI ikke er 100 % presis og kan generere informasjon som ikke stemmer overens med virkeligheten. Dette er kjent som hallusinering. KI basert på språkmodeller hallusinerer fordi de ikke forstår virkeligheten, men bare forutsier ord basert på mønstre i treningsdata, noe som kan føre til at de finner opp feilaktig informasjon. Dette skjer spesielt når modellen mangler nok relevante data eller prøver å svare på noe den ikke egentlig "vet". Når dette skjer i kritiske og sensitive oppgaver, kan konsekvensene bli alvorlige.
For offentlig sektor er det avgjørende å forstå hvor og hvordan slike feil kan oppstå, samt hvilke tiltak som kan redusere risikoen. En effektiv måte å minimere dette problemet, er å implementere KI i en stegvis prosess der hver vurdering skjer innenfor klart definerte rammer.
Dette gir bedre kontroll over hvordan KI tar beslutninger og reduserer sannsynligheten for at feil sprer seg i komplekse arbeidsprosesser. En annen svært effektiv metode, er å kombinere dette med bruk av terskelverdier. Hvor sikker må KI være på sin vurdering, for å få lov til å gjøre en bestemt handling før den sendes til et menneske? Med en plattform som Duo der man kan styre dette, får man kontroll over prosessen og dermed minimere risikofaktorer relatert til hallusinering.
Her er spørsmålene som bør stilles:
|
KI kan ikke etterprøves” (“Black box” problematikk)
Mange KI-løsninger fungerer litt som en “black box” som man forer med et spørsmål eller en opgave, og mottar en ferdig beslutning uten å kunne forstå helt hvordan den bestemte seg for noe og kan etterprøve den. Dette skaper utfordringer, spesielt i offentlig sektor, der transparens og etterprøvbarhet er avgjørende.
For å sikre sporbarhet og etterprøvbarhet kreves en KI-løsning som gir full kontroll, og det er akkurat dette vår egen KI-løsning Duo utmerker seg. Duo gir deg muligheten til å bryte ned prosesser, følge beslutningsgrunnlaget og implementere kontrollpunkter. Når KI er usikker, kan den varsle eller involvere en menneskelig beslutningstaker. Dette gir trygg automatisering med full sporbarhet og full kontroll på hvor sikker prosessen har vært.
Disse prosessene er kritiske, og suksess avhenger like mye av teknologivalg som av kompetansen til å implementere den på en sikker og brukervennlig måte.
Her er spørsmålene som bør stilles:
|
Konklusjon
Bekymringer rundt KI og sikkerhet i offentlig sektor er berettiget. Når offentlig sektor håndterer store mengder sensitive data og prosesser, må teknologi tas med største forsiktighet. Forskjellen ligger i hvordan teknologien er utviklet og implementert. Det er kritiske forskjeller mellom ulike typer teknologier og implementeringer.
Men, når sikkerhet er satt i sentrum fra start, kan KI være et verdifullt verktøy som ikke går på kompromiss med sikkerhet.
Er du nysgjerrig på hvordan KI kan brukes til automatisering?
Ta kontakt for en uforpliktende prat.