– Utviklingen av kunstig intelligens vil berøre alle samfunnsområder, og ha store konsekvenser både for den enkelte borger, for samfunnet og for vårt demokrati, sier direktør Line Coll i Datatilsynet.

Vil ha åpen kildekode: - Heller ikke vi som tilsyn, forstår ChatGPT

– Dersom vi lar kunstig intelligens få virke og utvikles helt uregulert, risikerer vi at samfunnet og demokratiet vårt blir akterutseilt, sier Line Coll, direktør i Datatilsynet.

Publisert

Enkelte røster hevder at kunstig intelligens kommer til å endre samfunnet vårt like grunnleggende som den industrielle revolusjonen, forteller Line Coll.

– At vi lar utviklingen skje i det stille, og overlater den til private aktører, uten styring fra politikere og lovgivere, er underlig for et tilsynsorgan som vårt. Vi mener at det går an å ta grep, og at Norge har et handlingsrom, sier Coll.

– Jeg kan ikke konkretisere akkurat hvilken lov som mangler; en slik bevisstgjøring må komme som et resultat av en offentlig samtale der man diskuterer hvor presset og risikoen er størst, og en aktiv politikk, understreker hun.

Inntil hun overtok som direktør i Datatilsynet i august i fjor, var hun partner i Wikborg Rein og ledet firmaets personvernteam.

– Utforsk handlingsrommet

Det juridiske landskapet er komplekst, og norske lovgivere kan ikke operere uavhengig av EU. Videre er og skal lovgivning som instrument være sendrektig, fordi alle skal bli hørt i en demokratisk prosess, påpeker direktøren.

– Jeg sender likevel en oppfordring til norske lovgivere om å utforske handlingsrommet for nasjonal lovgivning. Det er ikke så stort, men det er der. Et område vi har sett på, er skolene; man kunne for eksempel lagt ned forbud eller laget regler for bruk av bestemte applikasjoner eller digitale verktøy i skolen. Dette er et konkret område man kunne ha regulert, som ville fått stor betydning for barn og unge, sier Coll.

– De store, private markedsaktørene samler inn enorme mengder personopplysninger, uten noen form for demokratisk kontroll og åpenhet. Dette er, slik jeg ser det, en trussel mot demokratiet og hva slags samfunn vi vil ha fremover. Det er flere som har tatt til orde for at ti år frem i tid vil spørre oss selv «hva i all verden var det vi tenkte på».

For å kunne føre tilsyn med kunstig intelligens, må kildekoden være tilgjengelig.

– ChatGPT og andre lignende systemer er lukkede løsninger som folk flest ikke forstår, og heller ikke vi som tilsyn. Det er for stort og for vanskelig å komme innunder dem, sier Coll.

Kritisk til ny «venn»

I påsken dukket en ny såkalt AI-venn opp hos alle som bruker Snapchat. Dataene som er matet inn i den nye «vennen», går bare frem til 2021. Det nytter derfor ikke å spørre AI-vennen om krigen i Ukrainia, eller om hvem som er sjef i Datatilsynet (den svarer Colls forgjenger, Bjørn Erik Thon).

– Vi kan le av de ville svarene den gir, men for barn og unge og mindre ressurssterke personer, utgjør denne nye «vennen» en risiko, sier Coll.

Hun er veldig bekymret for at barn og unge kan komme til å dele mer personopplysninger enn de burde.

– Vi har testet den litt uformelt hos oss, og ser at den oppfører seg som en lytter som barnet lett kan få tillit til. En risiko er at barn for eksempel vil dele helseopplysninger som de synes det er flaut å snakke med andre om.

Coll er spesielt urolig for at kommersielle aktører gjennom slike tjenester får et enda større innblikk i våre liv.

– Vi må ha en samtale om dette i Norge for å få opp bevisstheten, så vi kan klare å regulere utviklingen bedre.

Armene rekker ikke rundt

Datatilsynets oppgave er blant annet å føre kontroll med at personvernregelverket etterleves, og medvirke til at enkeltpersoner ikke blir krenket gjennom bruk av opplysninger som kan knyttes til dem.

Problemet er at de mange av de store kommersielle aktørene ikke er norske, og heller ikke europeiske.

– Det norske Datatilsynet kan ikke regulere for eksempel Meta direkte. Vi får ikke armene våre rundt dem. Etter lovens system er vi ikke den rette instansen til å gripe inn, og da må lovgiverne prøve å få til inngrep overfor dem.

Det norske samfunnet er et av de mest gjennomdigitaliserte i verden, og mange sider av utviklingen er helt fantastisk, men den har skjedd nesten uten debatt om hvilke negative sider som følger med på lasset, påpeker hun.

– Vi har heller ikke snakket særlig om hvilke interesser vi har satt til side, for å komme dit vi er i dag. Datatilsynet mener ikke at digitaliseringen i seg selv er galt, men at vi som samfunn må ta noen viktige diskusjoner om utviklingen, fordi den skjer så fort.

Algoritmetilsyn

Datatilsynet har cirka seksti fast ansatte medarbeidere, derav mange jurister, men bare sju teknologer.

– Det er fryktelig få, det må jeg få lov til å si.

NTNU-forsker Inga Strümke mener Norge bør få et eget algoritmetilsyn, eventuelt at Datatilsynet styrkes kraftig og ilegges denne oppgaven. Coll tenker at et slikt tilsyn gjerne kan være en del av Datatilsynet.

– Vi har allerede hatt ett tilsyn med algoritmene som brukes for karaktersetting i skolen. Og jeg har vanskelig for å se at noen utenfor oss skal ha en slik tilsynsfunksjon. Men det er veldig mange type algoritmer, og ikke alle vil høre hjemme under oss; det ville ikke være naturlig for algoritmer som gir konkurransevridning, eller som benyttes i ny, grønn teknologi, for eksempel. Men jeg er veldig enig med Strümke at vi trenger mange flere teknologer og også jurister for å gjøre de nødvendige reguleringene på algoritmer som bør komme.

Advokatetikken og kunstig intelligens

Kunstig intelligens gir også noen advokatetiske utfordringer, reflekterer Coll.

– Jeg har ikke dypdykket i temaet, men jeg synes det er et interessant spørsmål om advokater kan bistå klienter som utvikler uetisk KI, eller KI med stort skadepotensial. Advokater har jo rapporteringsplikt hvis de mistenker at en klient driver med hvitvasking. Kanskje kan man se for seg at advokaten bør få får en tilsvarende varslingsplikt for slik kritisk KI? Hvor langt skal advokatens undersøkelsesplikt gå? Dette er kanskje et litt fjernt eksempel, men et spennende tankeeksperiment.

Når advokater bruker KI i sin rådgivning, er informasjonsplikten svært viktig, sier hun.

– Hvis du lener deg på kunstig intelligens, uten nødvendige mekanismer for kvalitetssikring, så er det en risiko. Så åpenhet er et viktig punkt.

Kunstig intelligens vil kunne styrke rettsikkerheten, hvis den brukes riktig.

– Men da må vi har regler som gjør at KI brukes på en god måte i advokatvirksomheten. Vi ser at i så kompetansedrevne bransjer som advokatvirksomhet, vil KI forenkle store sakskomplekser og ta bort mange menneskelige feil, så lenge det er forsvarlig og god KI som brukes. Kunstig intelligens som støtte i prosesser og i større sakskomplekser, er en stor fordel for advokatvirksomheter. Men det er avhengig av solid kvalitetssikring av mennesker til syvende og sist. Så advokater bør ikke frykte kunstig intelligens.

Powered by Labrador CMS