Christopher Frenning, Tore Tennøe, Espen Werring, Marianne Vollan og Sven Marius Urke

KUNSTIG INTELLIGENS:

- Domstolene er sultne på teknologi

- Det har skjedd en kulturendring, og domstolene er ikke lenger skeptiske, mener DA-direktør Sven Marius Urke. Partner Espen Werring i Thommessen spør om hvilken rolle Høyesterett skal ha i utviklingen av verktøy til hjelp i domsavsigelser.

Publisert Sist oppdatert

- Hva innebærer kunstig intelligens i domstolene? Skal vi etter hvert dømmes av roboter? Maskiner som tenker, er blitt en realitet veldig fort. Jeg tror teknologien kan være nyttig som en beslutningsstøtte for dommere, men jeg tror også at den nyanserte vurderingen som er nødvendig for å avsi en dom, fremdeles krever et dommerhode.

Det sa førstelagmann i Borgarting lagmannsrett og medlem i Domstoladministrasjonens styre, Marianne Vollan, da hun innledet en panelsamtale om kunstig intelligens møte med rettsapparatet onsdag ettermiddag i Arendal.

- Det er hvert fall veldig viktig at domstolene også er på banen når utviklingen går så fort, fortsatte hun.

Teknologi-sult i domstolene

Ifølge Domstoladministrasjonens leder og medlem av Statens digitaliseringsråd, Sven Marius Urke, har det skjedd en kulturendring i domstolene, hvor dommerne har gått fra å være teknologiforsiktige og teknologiskeptiske, til å bli sultne på teknologi.

- Til nå har digitaliseringen dreid seg om det som er rundt dommeren, særlig når det kommer til kommunikasjon med brukerne av domstolen. Med kunstig intelligens begynner vi å nærme oss sentrum for dommerens virksomhet, nemlig avklaring av faktum, avklaring av jussen og selve jussanvendelsen. Da blir teknologien et helt annet redskap for dommeren enn det den har vært til nå, sa han.

Sven Marius Urke.

Det interessante temaet akkurat nå, er hvordan dommeren kan bruke dette verktøyet til å levere bedre rettsikkerhet til brukerne, og hvilke forventninger brukerne har, fortsatte Urke.

- Vi har en veldig enkel strategi for Norges domstoler med fire mål. Et av disse dreier seg om digitalt rettsliv. Jeg ble i fjor invitert til Sverige for å presentere strategien. Der var det en universitetsforsker som sa at hvis en dommer avsier en dom i 2025 i Sverige uten å ha tatt i bruk kunstig intelligens, så vil ikke brukerne ha tillit til den.

- Hvis alle andre profesjoner bruker kunstig intelligens, hvorfor skal ikke dommerne bruke den? Og hvis domstolene ikke bruker det, vil da tilliten da forvitre, undret han.

- Skal vi ikke bli en utviklingsmakt?

Urke la også vekt på viktigheten av at både dommerne og Domstoladministrasjonen må forstå de applikasjonene som etter hvert blir tatt i bruk.

- Vi skal ikke utvikle dette selv. Men vi skal være brukere, så vi må forstå, kontrollere og minimere risikoene som ligger der. Maskinen skal ikke erstatte dommeren, men utfylle den, sa han og la til:

- Nå er jeg direktør for en virksomhet som vanlige folk ikke har råd til å bruke, inkludert meg selv. Jeg håper kunstig intelligens kan gjøre noe med det.

Urke brukte samtidig anledningen til å lufte en bekymring.

- Det er greit at EU har blitt en reguleringsmakt globalt, men det er bekymringsverdig at alle teknologiske løsninger kommer fra utenfor Europa. Skal vi bare være en reguleringsmakt, eller skal vi også bli en utviklermakt? Reguleringsiveren må ikke skygge over mulighetene som ligger der, sa han.

KI i domstolene = økt effektivitet

I panelet satt også Thommessen-partner og digitaliseringsveteran, Espen Werring. I over tjue år har han arbeidet med rådgivning i forbindelse med digital teknologi.

Akkurat hvordan kunstig intelligens vil påvirke justissektoren fremover, er vanskelig å svare på, mente Werring. Han pekte likevel på to sannsynlige endringer.

- Det ene er økt effektivitet i domstolene. Man vil kunne digitalisere beslutningsprosesser, og bruke teknologi som en assistent for å sortere data. Jeg tror også det vil vokse frem løsninger som vil kunne håndtere en del tvister, eksempelvis pengekravsprosesser, på en automatisk måte.

- Automatiserte avgjørelser har enn så lenge ikke funnet veien inn til domstolene. Estland har hatt et pilotprosjekt for håndtering av småkravsprosess siden 2019. Hva som er status for det prosjektet nå, vet jeg ikke, men det viser hvert fall at det har blitt vurdert hvordan man kan ta ned saksmengdene og øke gjennomføringshastighetene i domstolene, sa han.

Espen Werring.

- Stort mulighetsrom

Werring spådde at implementering av kunstig intelligens i domstolene vil kunne få betydning for rettssikkerheten.

- Kanskje vil flere få tilgang til rettsapparatet. Og når det gjelder rettskilder, kan man kode norsk juss fullt og helt, for da å kunne få et svar. Både dommere og advokater vil i så fall kunne bruke dette til en førstehåndsvurdering, selv om man kanskje ikke har full tillit til at det blir helt riktig, sa han.

- Teknologien vil kunne gå gjennom store mengder informasjon for å finne det som er relevant for saken. Kanskje vil man få teknologi som kan vurdere troverdigheten til vitner. Her er mulighetsrommet stort.

Høyesteretts rolle

Werring snakket også om potensielle utfordringer.

- Hvem skal sikre at KI-systemene til domstolene gir riktige resultater, og hvem skal utvikle, teste og endre systemene når det er behov for det, spurte han.

- Høyesterett spiller en viktig rolle i hvordan loven skal forstås, skal da også Høyesterett ha en rolle inn i utviklingen av disse verktøyene?

I tillegg pekte Thommessen-partneren på verktøyenes fremtidige treningsdata som en utfordring.

- I dag trenes systemene på data som ligger på internett. Etter hvert vil mye av det på internett være generert av ChatGPT og dermed kanskje ikke være helt riktig. Samtidig har vi globale koordineringsutfordringer. Kina har eksempelvis et helt annet syn på hva som er etisk riktig sammenliknet med EU, hvem vinner i det kappløpet, spurte han videre.

- Fremover tror jeg vi vil få demokratiske utfordringer hvor de store teknologi-gigantene har definisjonsmakten i stor grad når det kommer til hvordan systemene utvikles. Her må folket få en sterkere stemme.

- Vil få modeller som er faktuelt korrekte innen kort tid

Enn så lenge er ikke løsninger som ChatGPT gode nok til at man kan stole på alt av informasjon som kommer ut, minnet Christopher Frenning, National Technology Officer i Microsoft, om.

- Men vi kommer til å få modeller som er faktuelt korrekte innen kort tid, særlig innenfor spesifikke områder. Dette er modeller som kan trenes opp på norske dommer, norske lovtekster og så videre, som kan bli spesifikke innenfor det gitte fagfeltet, sa han.

Tore Tennøe, direktør i Teknologirådet, snakket om reguleringene som er ventet gjennom EUs forordning om kunstig intelligens.

- Det er en produktlov som skal regulere produktene. I den ligger det en risikopyramide hvor produktene kategoriseres som uakseptabel risiko, høy risiko, begrenset risiko og minimal risiko, sa han og mente ingen av de store språkmodellene som vi kjenner i dag, slik som ChatGPT, ville oppfylt kravene.

Powered by Labrador CMS