Schjødt deler egne KI-retningslinjer: – Et så sterkt verktøy krever klare rammer
Schjødt-partner Eva Jarbekk står bak firmaets KI-retningslinjer, som nå deles offentlig. Hun etterlyser felles bransjestandarder, og har klare meninger om både datasikkerhet, opptak og transkribering.
Eva Jarbekk, partner i Schjødt, har ledet arbeidet med firmaets KI-retningslinjer.Foto: Jonas Fosaas
Schjødt er blant de første advokatfirmaene i Norge som har
utarbeidet og nå offentlig deler sine interne retningslinjer for bruk av
kunstig intelligens. Partner Eva Jarbekk har ledet arbeidet, og håper at selskapets erfaringer kan være til nytte for andre i bransjen.
Du finner retningslinjene i sin helhet nederst i artikkelen.
Annonse
For mens teknologien utvikler seg raskt, finnes det per i dag ingen felles retningslinjer for advokaters bruk av KI i Norge. Advokatforeningens etikkutvalg er i gang med å utarbeide slike, men arbeidet er foreløpig ikke sluttført.
Enorme muligheter og stor risiko
I mellomtiden deler Schjødt sine for å bidra til økt
bevissthet. Dette handler ikke om konkurranse, men et felles ansvar, mener
Jarbekk.
– Det er ingen grunn til å holde kortene tett til brystet.
Vi gjør dette av hensyn til samfunnets beste, både for klienter og for
advokater.
– Det er helt nødvendig - til og med et lovkrav - å ha
interne retningslinjer for bruk av kunstig intelligens. Man kan ikke bruke så
sterke verktøy uten å ha klare retningslinjer, med vennlig hilsen GDPR og
forretningshemmelighetsloven, sier hun.
Blant de viktigste punktene i retningslinjene er:
Juridiske råd skal aldri baseres på KI alene, fordi modellene kan hallusinere, ha kunstig språk og innebygde bias.
Det kan oppstå konflikt med opphavsrett – særlig hvis KI-verktøyet trener på det du legger inn.
Forretningshemmeligheter og personopplysninger skal alltid beskyttes,
KI skal aldri ta beslutninger som påvirker noens rettigheter.
Man må være varsom med automatiske transkripsjoner.
Retningslinjene er forankret i gjeldende lovverk om personvern, taushetsplikt og konfidensialitet, og utformet med tanke på å sikre trygg og forsvarlig bruk av KI.
– Vi bruker verktøy som gir enorme muligheter, men også stor risiko. Da må vi også ha retningslinjer for hvordan disse kan brukes på best mulig vis, sier hun.
Fare for brudd på taushetsplikt og opphavsrett
Jarbekk viser til at mange selskaper har ansatte som allerede
har begynt å bruke gratis KI-modeller som ligger på nettet, uten en klar struktur for
hva som er forsvarlig.
– I våre retningslinjer skiller vi tydelig mellom hva som er
gratis tilgjengelige KI-verktøy, og de programmene vi har godkjent for intern
bruk. Det er en vesentlig forskjell på disse to.
Risikoen handler særlig om at KI-verktøyene kan bruke det som legges inn til læring, og dermed eksponere sensitive opplysninger.
– De offentlig åpne verktøyene trener ofte på dataene man
mater dem med. Da risikerer man at informasjonen dukker opp igjen hos andre.
Slik mister man kontrollen over dataene, og det kan i verste fall føre til
brudd på taushetsplikt og opphavsrett.
– Dataene kan også brukes til konkurrerende virksomhet eller
ondsinnet bruk. Selv om det ikke skjer så ofte i praksis, er det en risiko ingen firmaer kan ta, sier Jarbekk.
Regelverket må oppdateres jevnlig
Grunnprinsippene i Schjødts retningslinjer er forankret i
GDPR og reglene om forretningshemmeligheter. Men det er ikke tilstrekkelig med
én runde. Retningslinjene må stadig oppdateres, mener Jarbekk.
– Verktøyene utvikler seg hele tiden. Noen har fått funksjoner som «websearch», der modellen henter informasjon fra internett. For å gjøre det, må dataene du legger inn først sendes ut. Det er et godt eksempel på ny funksjonalitet som kan gå under radaren hvis man ikke følger nøye med, sier hun.
Schjødt trener ikke opp sine egne KI-verktøy, men har etablert
et prompt-bibliotek, med skreddersydde instruksjoner for ulike oppgaver.
– Vi utvikler oss via prompting, som er de instruksene man
gir til KI-verktøyet. Her har vi laget egne instrukser, tilpasset ulike
avdelinger. For eiendomsjuss har vi én type behov, de som jobber med IT-juss trenger noe helt annet. KI må tilpasses ulike fagområder, og bruken av egne promptbiblioteker vil trolig bli langt vanligere fremover.
Trainee vs. kunstig intelligens
Til tross for risikoene, mener Jarbekk at kunstig intelligens er et
svært nyttig arbeidsverktøy.
– Det endrer fullstendig måten vi jobber på, særlig ved
dokumentanalyse og due diligence. Modellene er fortsatt i en tidlig fase, men
de vil etter hvert gi bedre dokumentproduksjon. På noen områder er de allerede
veldig gode, og sparer oss for mye tid.
Men hun legger til at kontroll fortsatt er helt nødvendig.
– Du kan aldri stole helt på KI, men det gjør ofte en god
jobb på områder hvor man kan spare tid.
– Og hvem stoler du mest på, KI eller trainees?
– Omtrent like mye. Begge gjør en veldig god jobb, men
ingen av dem kan slippes helt fri, sier hun spøkefullt.
Intern forankring og opplæring
Arbeidet med retningslinjene har vært forankret i firmaets
teknologigruppe, ledet av Jarbekk selv.
– På dette prosjektet hadde jeg en klar hånd på rattet. Vi
har gått grundig gjennom både leverandører og interne behov, og retningslinjene
har allerede blitt oppdatert én gang, selv om de har vært operative i bare
noen måneder.
KI-verktøyet Copilot ble rullet ut 1. januar, med opplæring
til alle ansatte. Deretter fulgte innføringen av verktøyet Legora, hvor opplæring og
trening strakk seg over flere måneder. Retningslinjene har stått sentralt i
denne prosessen.
I tillegg til KI-retningslinjene er Jarbekk opptatt av
opptaksfunksjoner i møteverktøy.
– Folk oppfører seg annerledes når de vet at noe tas opp.
Det demper den frie samtalen og endrer dynamikken. Jeg tror det er uheldig.
Hun mener det finnes situasjoner hvor opptak kan være
nyttig, slik som i opplæringssammenhenger. Det må likevel ikke bli en standard i alle
typer møter.
– Det er selskaper som bruker opptak selv i møter med HR,
noe jeg mener er helt uriktig. Derfor trenger man retningslinjer som klargjør
hva som er greit. I klientmøter mener jeg det skal være svært høy terskel, og
tydelig samtykke må være på plass.
I Schjødt er retningslinjene tydelige: Opptak kan brukes i
opplæringsøkter med mange deltakere, men ikke i vanlige møter med fri diskusjon, og aldri i HR-samtaler.
– Ikke for langt, ikke for vanskelig
Jarbekk håper at andre firmaer lar seg inspirere til å lage
egne retningslinjer.
– Noen firmaer har retningslinjer som ligner, men vi håper
veien blir kortere for dem som ikke har det ennå. Det er særlig viktig nå som
mange begynner å ta i bruk slike verktøy.
– Det har en verdi at retningslinjene ikke er for
lange. Jeg kunne skrevet 12 sider, og likevel ønsket at det var 15, men de må være i et format som gjør at de ansatte faktisk klarer å ta dem
inn over seg, sier Jarbekk.
Schjødts sjekkliste
for bruk av KI-verktøy
Hentet fra Schjødts retningslinjer for bruk av KI.