Vebjørn Søndersrød og Tonje H. Skjelbostad.

Etikk-eksperter: – Vær varsom ved bruk av kunstig intelligens

Advokatene Vebjørn Søndersrød og Tonje H. Skjelbostad i Advokatforeningens utvalg for advokatetikk advarer mot flere mulige etiske fallgruver ved advokaters bruk av kunstig intelligens.

Publisert Sist oppdatert

Advokatbransjen er i endring, og etter at ChatGPT traff verden som en teknologisk revolusjon i fjor, har advokatene for alvor fått øynene opp for kunstig intelligens som et nytt og effektiviserende arbeidsverktøy.

Føyen-partner Vebjørn Søndersrød og advokat og konsernsjef i Alt Legalt, Tonje H. Skjelbostad, er begge teknologi-optimister, men advarer advokater mot uaktsom bruk av teknologi, og minner om at advokatetikken gjør seg gjeldende i alle steg av en AI-prosess.

– Den gjelder ved valg av verktøy, implementering, input av data og så videre. Så lenge det gjøres som ledd i advokatvirksomhet, er hele prosessen omfattet av etikken, understreker Skjelbostad.

– Og så må man være varsom med AI-løsninger installert lokalt, slik at det ikke deles for mye informasjon internt. Der blir det nok syndet mye, tror de to.

Datatrygghet

Når advokater tar i bruk arbeidsverktøy basert på kunstig intelligens (AI), er det særlig viktig å verne om taushetsplikten.

– Advokaten plikter å sørge for at uvedkommende ikke får tilgang til klientinformasjon, og må før bruk av kunstig intelligens vurdere om klientopplysninger kan havne på avveie, for eksempel ved at andre brukere kan få tilgang til dem.

Advokaten bør være restriktiv med å tillate at AI-motoren trenes på ekte klientopplysninger. I tilfellet må advokaten være helt sikker på hva konsekvensene blir, noe som i dag er vanskelig å overskue, mener Søndersrød.

Advokatene plikter å sette seg såpass godt inn i brukervilkår og avtaleverk at de kan være sikre på at informasjonen som puttes inn i en maskin, er trygge.

– Men så blir spørsmålet om leverandøren rent faktisk klarer å levere et helt sikkert system. Her er det en risiko, sier Skjelbostad.

– Må forstå dataene

De to etikk-ekspertene oppfordrer advokatvirksomheter til å lage egne retningslinjer for god AI-bruk. Eksempelvis at teknologien kan brukes til rettskildesøk og utkast, men at man ikke kan mate verktøyet med reell klientinformasjon.

– Taushetsplikten er hellig for advokater i denne sammenhengen også, og man må forstå dataflyten og datatilgangen i systemene man velger å bruke. Det er helt grunnleggende, sier Søndersrød.

– Jeg tror det vil komme eksempler på advokater som har brukt AI-verktøy uten å kvalitetssjekke resultatet tilstrekkelig før det sendes videre, sier Skjelbostad.

RGA gjelder hele tiden

Foreløpig har ikke Advokatforeningens utvalg for advokatetikk sett behov for å lage egne retningslinjer for advokaters bruk av kunstig intelligens. Men dette kan endre seg.

– Diskusjonen internt i etikkutvalget er påbegynt. Regler for god advokatskikk er et generelt regelverk for god advokatetikk. Det gjelder hele tiden, uavhengig av hvilken teknologi eller arbeidsmetoder advokater benytter seg av, sier Skjelbostad.

Advokatetiske risikoer ved bruk av AI

  • Tilkobling til skytjenester gjør det mulig for uvedkommende å trenge inn.
  • Black box-problemet: Verktøyets struktur og databehandling kan være skjult for brukeren.
  • Risiko for diskriminering avhengig av hvilke data verktøyet er trent på.
  • Trussel mot fortrolighetsplikten: Data som legges inn kan brukes som opplæringsdata og videreformidles.
  • Trussel mot taushetsplikten: Risiko for at sensitiv klientinformasjon kan brukes og spres av verktøyet.
  • Trussel mot advokatens plikt til å opptre saklig og riktig ved at verktøyet gir gale svar.

KILDE: CCBE (Den europeiske advokatforeningen).

Powered by Labrador CMS