Kunstig intelligens

Schjødt deler egne KI-retningslinjer: – Et så sterkt verktøy krever klare rammer

Schjødt-partner Eva Jarbekk står bak firmaets KI-retningslinjer, som nå deles offentlig. Hun etterlyser felles bransjestandarder, og har klare meninger om både datasikkerhet, opptak og transkribering.

Eva Jarbekk, partner i Schjødt, har ledet arbeidet med firmaets KI-retningslinjer.

Schjødt er blant de første advokatfirmaene i Norge som har utarbeidet og nå offentlig deler sine interne retningslinjer for bruk av kunstig intelligens. Partner Eva Jarbekk har ledet arbeidet, og håper at selskapets erfaringer kan være til nytte for andre i bransjen. 

Du finner retningslinjene i sin helhet nederst i artikkelen.

For mens teknologien utvikler seg raskt, finnes det per i dag ingen felles retningslinjer for advokaters bruk av KI i Norge. Advokatforeningens etikkutvalg er i gang med å utarbeide slike, men arbeidet er foreløpig ikke sluttført.

Enorme muligheter og stor risiko

I mellomtiden deler Schjødt sine for å bidra til økt bevissthet. Dette handler ikke om konkurranse, men et felles ansvar, mener Jarbekk.

– Det er ingen grunn til å holde kortene tett til brystet. Vi gjør dette av hensyn til samfunnets beste, både for klienter og for advokater.

– Det er helt nødvendig - til og med et lovkrav - å ha interne retningslinjer for bruk av kunstig intelligens. Man kan ikke bruke så sterke verktøy uten å ha klare retningslinjer, med vennlig hilsen GDPR og forretningshemmelighetsloven, sier hun.

Blant de viktigste punktene i retningslinjene er:

  • Juridiske råd skal aldri baseres på KI alene, fordi modellene kan hallusinere, ha kunstig språk og innebygde bias.
  • Det kan oppstå konflikt med opphavsrett – særlig hvis KI-verktøyet trener på det du legger inn.
  • Forretningshemmeligheter og personopplysninger skal alltid beskyttes,
  • KI skal aldri ta beslutninger som påvirker noens rettigheter.
  • Man må være varsom med automatiske transkripsjoner.

Retningslinjene er forankret i gjeldende lovverk om personvern, taushetsplikt og konfidensialitet, og utformet med tanke på å sikre trygg og forsvarlig bruk av KI.

– Vi bruker verktøy som gir enorme muligheter, men også stor risiko. Da må vi også ha retningslinjer for hvordan disse kan brukes på best mulig vis, sier hun.

Fare for brudd på taushetsplikt og opphavsrett

Jarbekk viser til at mange selskaper har ansatte som allerede har begynt å bruke gratis KI-modeller som ligger på nettet, uten en klar struktur for hva som er forsvarlig.

– I våre retningslinjer skiller vi tydelig mellom hva som er gratis tilgjengelige KI-verktøy, og de programmene vi har godkjent for intern bruk. Det er en vesentlig forskjell på disse to.

Risikoen handler særlig om at KI-verktøyene kan bruke det som legges inn til læring, og dermed eksponere sensitive opplysninger.

– De offentlig åpne verktøyene trener ofte på dataene man mater dem med. Da risikerer man at informasjonen dukker opp igjen hos andre. Slik mister man kontrollen over dataene, og det kan i verste fall føre til brudd på taushetsplikt og opphavsrett.

– Dataene kan også brukes til konkurrerende virksomhet eller ondsinnet bruk. Selv om det ikke skjer så ofte i praksis, er det en risiko ingen firmaer kan ta, sier Jarbekk.

Regelverket må oppdateres jevnlig

Grunnprinsippene i Schjødts retningslinjer er forankret i GDPR og reglene om forretningshemmeligheter. Men det er ikke tilstrekkelig med én runde. Retningslinjene må stadig oppdateres, mener Jarbekk.

– Verktøyene utvikler seg hele tiden. Noen har fått funksjoner som «websearch», der modellen henter informasjon fra internett. For å gjøre det, må dataene du legger inn først sendes ut. Det er et godt eksempel på ny funksjonalitet som kan gå under radaren hvis man ikke følger nøye med, sier hun.

Schjødt trener ikke opp sine egne KI-verktøy, men har etablert et prompt-bibliotek, med skreddersydde instruksjoner for ulike oppgaver.

– Vi utvikler oss via prompting, som er de instruksene man gir til KI-verktøyet. Her har vi laget egne instrukser, tilpasset ulike avdelinger. For eiendomsjuss har vi én type behov, de som jobber med IT-juss trenger noe helt annet. KI må tilpasses ulike fagområder, og bruken av egne promptbiblioteker vil trolig bli langt vanligere fremover.

Trainee vs. kunstig intelligens

Til tross for risikoene, mener Jarbekk at kunstig intelligens er et svært nyttig arbeidsverktøy.

– Det endrer fullstendig måten vi jobber på, særlig ved dokumentanalyse og due diligence. Modellene er fortsatt i en tidlig fase, men de vil etter hvert gi bedre dokumentproduksjon. På noen områder er de allerede veldig gode, og sparer oss for mye tid.

Men hun legger til at kontroll fortsatt er helt nødvendig.

– Du kan aldri stole helt på KI, men det gjør ofte en god jobb på områder hvor man kan spare tid.

– Og hvem stoler du mest på, KI eller trainees?

– Omtrent like mye. Begge gjør en veldig god jobb, men ingen av dem kan slippes helt fri, sier hun spøkefullt.

Intern forankring og opplæring

Arbeidet med retningslinjene har vært forankret i firmaets teknologigruppe, ledet av Jarbekk selv.

– På dette prosjektet hadde jeg en klar hånd på rattet. Vi har gått grundig gjennom både leverandører og interne behov, og retningslinjene har allerede blitt oppdatert én gang, selv om de har vært operative i bare noen måneder.

KI-verktøyet Copilot ble rullet ut 1. januar, med opplæring til alle ansatte. Deretter fulgte innføringen av verktøyet Legora, hvor opplæring og trening strakk seg over flere måneder. Retningslinjene har stått sentralt i denne prosessen.

Kritisk til ukritisk bruk av opptaksverktøy

I tillegg til KI-retningslinjene er Jarbekk opptatt av opptaksfunksjoner i møteverktøy.

– Folk oppfører seg annerledes når de vet at noe tas opp. Det demper den frie samtalen og endrer dynamikken. Jeg tror det er uheldig.

Hun mener det finnes situasjoner hvor opptak kan være nyttig, slik som i opplæringssammenhenger. Det må likevel ikke bli en standard i alle typer møter.

– Det er selskaper som bruker opptak selv i møter med HR, noe jeg mener er helt uriktig. Derfor trenger man retningslinjer som klargjør hva som er greit. I klientmøter mener jeg det skal være svært høy terskel, og tydelig samtykke må være på plass.

I Schjødt er retningslinjene tydelige: Opptak kan brukes i opplæringsøkter med mange deltakere, men ikke i vanlige møter med fri diskusjon, og aldri i HR-samtaler.

– Ikke for langt, ikke for vanskelig

Jarbekk håper at andre firmaer lar seg inspirere til å lage egne retningslinjer.

– Noen firmaer har retningslinjer som ligner, men vi håper veien blir kortere for dem som ikke har det ennå. Det er særlig viktig nå som mange begynner å ta i bruk slike verktøy.

– Det har en verdi at retningslinjene ikke er for lange. Jeg kunne skrevet 12 sider, og likevel ønsket at det var 15, men de må være i et format som gjør at de ansatte faktisk klarer å ta dem inn over seg, sier Jarbekk.

Schjødts sjekkliste for bruk av KI-verktøy

Hentet fra Schjødts retningslinjer for bruk av KI.

Her finner du Schjødts interne retningslinjer for bruk av KI, som mal.

Powered by Labrador CMS