Dekan Karl Harald Søvig ved Det Juridiske fakultet i Bergen.

Foreslår at jusstudenter skal få bruke KI på eksamen

En arbeidsgruppe ved UiB har utarbeidet retningslinjer for bruk av kunstig intelligens i undervisning og prøving, og foreslår blant annet at kunstig intelligens tillates i eksamenssituasjoner. -  Ingen arbeidsgiver vil akseptere at studentene bruker timer på oppgaver som KI løser på sekunder, sier dekan Karl Harald Søvig.

Publisert Sist oppdatert

«En svært tydelig måte å regulere bruk av KI-verktøy på, kunne vært gjennom et totalforbud mot enhver bruk av KI-verktøy i forbindelse med formativ og summativ vurdering. Slik arbeidsgruppen vurderer det, er dette imidlertid ikke en hensiktsmessig vei å gå.».

Slik heter det innledningsvis i den ferske rapporten, utferdiget av en arbeidsgruppe ved Det juridiske fakultet ved Universitetet i Bergen, opprettet for å utarbeide retningslinjer for bruk av KI i undervisning og prøving. 

I stedet for et totalforbud mot kunstig intelligens, foreslås det en rekke tiltak for å legge til rette for faglig forsvarlig bruk av KI-verktøy gjennom studiene.

- Vi bør gå motsatt vei

- Mange mener at svaret på KI-utfordringen bør være å sikre integriteten i prøvingen ved å oppstille et forbud mot bruk. Vi mener imidlertid at vi bør gå motsatt vei, og i størst mulig grad åpne opp for at studentene kan ta i bruk KI-verktøy i forbindelse med avsluttende vurdering på de senere studieårene.

Det sier professor ved Det juridiske fakultet, Jan-Ove Færstad. Han har ledet arbeidsgruppen som har utarbeidet rapporten.

- Vår jobb som utdanningsinstitusjon er å legge til rette for at de studentene vi utdanner blir i stand til å løse rettsspørsmål på en virkelighetsnær måte. Dette innebærer at de må bli i stand til å bruke de verktøyene som er tilgjengelige i arbeidslivet på en hensiktsmessig og faglig forsvarlig måte, men også at de må ha tilegnet seg kompetanse som disse verktøyene ikke kan erstatte, sier han.

Undersøkt undersøkelser og undersøkt selv

I forbindelse med utarbeidelse av rapporten har arbeidsgruppen gjennomført grundige undersøkelser av forskning som relaterer seg til betydningen av anvendelse av kunstig intelligens på jusstudiet. I arbeidet med rapporten har arbeidsgruppen dessuten testet ulike KI-verktøy selv, blant annet Justitia-bot.

- Undersøkelsene viser at det er noen typiske «jurist-oppgaver» som KI-verktøy kan erstatte på en god måte, samtidig som det er andre oppgaver som KI-verktøy ikke er spesielt godt egnet til å løse. For mange jurister handler arbeidshverdagen om å løse komplekse rettslige problemer, og det er dagens KI-verktøy ganske dårlig på, sier Færstad.

Et hovedfunn i rapporten er at KI-verktøy er dårlig til å løse ustrukturerte spørsmål, typisk problemstillinger som involverer flere rettsområder eller komplekse faktiske forhold.

- KI-verktøy er også dårlig til rettsutvikling. Disse svakhetene ligger på en måte innbakt i at KI-verktøy er språkmodeller, og slik sett vil dette ikke bøtes på når de blir kraftigere eller trenes på bredere datasett, sier dekan Karl Harald Søvig.

To parallelle spor

Det fremgår av rapporten at det, etter arbeidsgruppens oppfatning, er helt avgjørende for kvaliteten på den juridiske kompetansen til studentene som uteksamineres at fakultetet forholder seg til eksistensen av KI-verktøy langs to parallelle spor. 

På den ene siden må fakultetet legge til rette for at de studentene som utdannes tilegner seg den kompetansen som de vil trenge i arbeidslivet. På den annen siden må det treffes nødvendige tiltak for å sikre integriteten i lærings- og vurderingssituasjonen.

Rapporten følger de nevnte parallelle sporene. Det fremmes derfor på den ene siden forslag til tiltak som bør gjennomføres på fakultetsnivå for å adressere muligheter og utfordringer som KI-verktøy gir for læring og vurdering ved fakultetet. 

På den annen side blir det fremmet forslag til endringer av fakultetets regelverk, retningslinjer og instrukser for å ta hensyn til bruk av KI-verktøy.

Vil innlemme KI-kunnskap i læringsutbyttebeskrivelsen

Arbeidsgruppen foreslår flere ulike endringer i læringsutbyttebeskrivelsen for masterstudiet i rettsvitenskap. 

Blant annet foreslås det et nytt kulepunkt under «ferdigheiter»:

«bruke digitale verktøy, medrekna KI-verktøy, på ein hensiktsmessig og fagleg forsvarleg måte i sitt arbeid med å identifisere, dr.fte og ta standpunkt til rettslege problemstillingar»

 Til «generell kompetanse» foreslås det også betydelige endringer:

 «reflektere kritisk over, og kunne ta stilling til, dei rettslege og etiske utfordringane knytt til den teknologiske utviklinga, medrekna utviklinga av digitale verktøy basert på kunstig intelligens».

Forslag til opplæringsprogram

Arbeidsgruppen er også innom og drøfter det pedagogiske fundamentet – hvordan studentene bør lære om bruk av KI-verktøy, samt de utfordringene slik bruk medfører. 

Det fremmes også forslag til et opplæringsprogram som kan innføres på kort sikt og mellomlang sikt. Det blir også lagt frem forslag til opplæring for emneansvarlige og andre undervisere, samt forslag til informasjonsbrev til sensorene. 

Dekan Søvig er positiv til endringsforslagene.

- Juristutdanningen må legges opp slik at studentene har kunnskap og innsikt over de muligheter og begrensninger som bruk av KI-verktøy innebærer. Ingen arbeidsgiver vil akseptere at studentene bruker timer på oppgaver som KI løser på sekunder. En del enkle arbeidsoppgaver vil derfor kunne settes bort. Samtidig må mennesker også her kvalitetssikre. For mer kompliserte oppgaver vil KI-verktøy kunne gi hjelp, men med begrensninger, sier han.

Foreslår noen endringer i regelverket

Arbeidsgruppen presenterer noen forslag til endringer i dagens regelverk. Det er tale om konkrete forslag til endringer av fakultetets regelverk, retningslinjer og instrukser.

Endringsforslagene har oppstått i kjølvannet av arbeidsgruppens arbeid, og det er forslag som det er «sett et behov for». Det er blant annet presentert forslag til regelverk og retningslinjer for tillatt bruk av KI-verktøy knyttet til masteroppgave, hjemmeeksamener, kursoppgaver og arbeidsgruppeoppgaver. 

Bruk krever redelig sitering

Én av forslagsendringene finner vi i § 4-1, i Utfyllende regler for studier ved Det juridiske fakultet, Universitetet i Bergen, som i dag lyder:

«Alle arbeider som leveres for godkjenning/sensur, skal være studentens eget arbeid. Dette gjelder også der vedkommende arbeid(er) ikke inngår i grunnlaget for karakterfastsettelse. Kilder som nyttes skal angis i overensstemmelse med universitetets retningslinjer om kildebruk. Overtredelse vil bli å vurdere som fusk, se § 4-2.» ­

Arbeidsgruppen foreslår bestemmelsen endret med følgende tilføyelse avslutningsvis:

«Arbeider som er helt eller delvis skapt ved bruk av verktøy som benytter seg av generativ kunstig intelligens kan ikke regnes som studentens eget arbeid. Slike arbeider kan også vurderes som fusk med mindre de er sitert på redelig måte.».

Forutsetningsvis foreslår arbeidsgruppen altså at det åpnes for å bruke kunstig intelligens i eksamenssituasjoner. Arbeider som er skapt med KI-verktøy helt eller delvis kan ikke tas til inntekt for å være studentenes eget arbeid, men det er ikke ulovlig å få hjelp, så lenge siteringen er à jour.

Arbeidsgruppen begrunner endringen med at de mener det må fremgå tydelig av regelverket at arbeider som er helt eller delvis skapt ved bruk av verktøy som benytter seg av generativ kunstig intelligens ikke kan regnes som studentens eget arbeid, og at slike arbeider kan vurderes som fusk med mindre de er sitert på redelig måte: 

«Det vil gi fakultetet en tydelig hjemmel for å gripe inn mot bruk av disse verktøyene ved utarbeidelse av arbeider som skal leveres for godkjenning eller sensur.».

Hele rapporten kan du lese her

Powered by Labrador CMS