– Gjennom 2022 forstod vi endelig at det skjer store ting som vi ikke har nok regulering eller nok politisk lederskap til å håndtere. Hvor mye mer våkne enn dette kan vi bli, spør Inga Strümke.

KUNSTIG INTELLIGENS

Vil ha krav til risikoanalyser og åpenhet

Utviklingen av kunstig intelligens foregår i et lovtomt rom. Det bekymrer NTNU-forsker Inga Strümke. Hadde de nødvendige reguleringene vært på plass, tror hun ChatGPT aldri ville ha blitt tilgjengelig i EU.

Publisert Sist oppdatert

TRONDHEIM: – EUs foreslåtte forordning om kunstig intelligens stiller krav til teknisk dokumentasjon og risikodempende tiltak. ChatGPT ville ha strøket, mener hun.

Inga Strümke har doktorgrad i partikkelfysikk, og arbeider ved NTNUs institutt for datateknologi og informatikk. Her forsker hun på kunstig intelligens. For tiden er hun aktuell med boken «Maskiner som tenker», og har særlig siden lanseringen av ChatGPT for omtrent et halvår siden, blitt et kjent fjes i mediene. I podkastene «Abels tårn», «Wolfgang Wee Uncut» eller «Game over?», kan man også høre Strümke snakke om kunstig intelligens i timevis.

Like før Advokatbladet møter AI-eksperten godt plassert i en kongeblå sofa i AI-labben til NTNU i Trondheim, har Italia iverksatt et midlertidig forbud mot ChatGPT som første land i Europa, og over 1100 tech-topper, deriblant Elon Musk og Steve Wozniak, har signert et felles opprop om pause i utviklingen av nye AI-modeller i påvente av flere regler og mer rammeverk.

Strümke mener samfunnet må finne svaret på hvordan systemet kan forbys med reguleringene vi allerede har. Samtidig oppfordrer hun de juridiske forskningsmiljøene til å kartlegge hvordan man skal håndtere misforholdet mellom hvor lang tid det tar å skrive juss og den raske, men uoversiktlige, utviklingen av AI.

– Det er artig jussgymnastikk. Reguleringshastigheten og utviklingshastigheten vil sannsynligvis aldri kunne matche hverandre. Man kan ikke bruke den tradisjonelle lovoppskriften på dette feltet. Hvordan man da skal få på plass gode reguleringer, er et juridisk forskningsspørsmål vi må ha svar på.

– Gigantisk problem

Slik det er i dag, finnes det ikke stort av reguleringer knyttet til utvikling og bruk av kunstig intelligens utover nasjonale strategier og retningslinjer fra EU. Den foreslåtte forordningen om kunstig intelligens, også kjent som EUs AI Act, er på trappene, men vil først trolig tre i kraft i 2025.

Forskeren advarer mot å vente med å komme med mer håndfast regler til man har sett hvilken vei AI-utviklingen går.

– Da havner vi fort i en sedvanefelle, slik vi har gjort med sosiale medier. Hvis noen hadde beskrevet Instagram og hvordan plattformens anbefalingssystemer funker, hadde vi aldri tillatt at det ble tilgjengelig. Det er et manipulerende system som utnytter sårbarheter, særlig blant mindreårige, men også på tvers på hele befolkningen. Vi hadde aldri godtatt det. Men nå har Instagram eksistert i snart 13 år, og det ville ha blitt opplevd som veldig radikalt å fjerne tjenesten, mener Strümke.

Hverken å regulere i forkant av utvikling, eller å lage et regelverk basert på intensjoner, slik som GDPR, viser seg å fungere godt i praksis, ifølge forskeren.

– Jeg mener derfor at vi har et gigantisk problem.

– Vi har masse teknologi som er bra og som løser mange utfordringer. Det er hvis teknologien brukes feil eller i feil kontekst, at den blir et problem, sier Inga Strümke.

– Butter mot intellektuelle grenser

For å regulere maskinlæringsmodeller på en hensiktsmessig måte, må man kunne beskrive nøyaktig hva den gjør. Det krever høy kompetanse innenfor både computer science og statistikk – i tillegg til den juridiske forståelsen.

– Altså må man mer eller mindre være både en god jurist og en AI-forsker. Jeg begynner å lure på om vi nå er i ferd med å butte mot noen intellektuelle grenser når det kommer til å forstå systemene, sier Strümke.

Å avgjøre hva som skal være lovlig og ulovlig bruk av kunstig intelligens, er en krevende øvelse, forteller hun.

– Hvis jeg skal være arrogant og forklare hva en diffusjonsmodell gjør, eksempelvis en slik som genererer bilder, vil jeg si at den trekker fra en sannsynlighetsvurdering. Det kan umulig være ulovlig. Hvilken lov forbyr det å modellere en sannsynlighetsfordeling og trekke fra den? Ingen lov.

– Har man lyst til å forby slike modeller, må det handle om datagrunnlaget som brukes i opplæring av maskinene. Da er vi igjen inne på en sedvane, fordi AI-utviklere lenge har hentet treningsdata fra internett. Hvis man skal forby det, vil det ha en tilbakevirkende kraft på mange ting vi allerede synes er helt greit.

Behov for nytt, juridisk objekt

Enkelt forklart består et maskinlæringssystem av et datagrunnlag, en målfunksjon og en modell der parametere skal tilpasses.

– For å lage hensiktsmessige reguleringer, tror jeg vi må se på alle bestanddelene, for så å se på treningsgrunnlaget, altså dataene som er brukt i opplæring. På den måten vil man kanskje se hvor de enkelte reguleringene treffer, sier Strümke.

– Men hva skjer så idet det oppstår et system som er så komplekst at man ikke kan forutsi hvilke egenskaper det vil få? Må vi da tenke nytt? Maskiner opptrer ikke som aktører i samfunnet, og tar ikke stilling til hvorvidt de bidrar til god eller dårlig samfunnsutvikling. Det er firmaet eller personene bak som er aktørene. Vi vil måtte ta en diskusjon om når maskiner skal få aktørskap en eller annen gang, men kanskje trenger vi allerede nå et nytt juridisk objekt, som store systemer uten forutsigbar oppførsel, må få.

Inga Strümke henger opp utredningsinstruksen på kontoret.

Åpenhet og risiko

AI-eksperten mener det haster å få på plass krav til risikoanalyse og transparens, og hun anser det som et «kjempeproblem» at ChatGPT ikke har en åpen og tilgjengelig kildekode. Dermed er ikke mulig å se hvilke mekanismer som er tatt i bruk for å beskytte brukerne.

– På et vis eier Open AI rettigheten til hvilket meningsmangfold som skal få lov til å utvikle seg. Selv om ChatGPT «bare» er en maskin som gjør sannsynlighetsberegninger, er det noen som har satt klare regler for hva den kan svare på og ikke. Det bør være åpent, hvis ikke er det ikke noe rom for demokratisk styring eller tilsyn, sier Strümke.

– Det at systemer med så stor effekt, ikke skal være transparente, er absurd og umoderne, men hvordan man skal tvinge bedrifter til å legge ut om forretningshemmelighetene sine, det vet jeg ikke.

– Vil EUs foreslått forordring om kunstig intelligens få nok effekt?

– Jeg tror den er altfor ambisiøs. Ambisjonsnivået er så høyt at det vil være vanskelig å leve opp til, men den har alle elementene jeg tenker at den burde ha. Eksempelvis at man må ha på plass både teknisk dokumentasjon og risikoanalyse før en lansering. Jeg håper den vil bli retningsgivende for utvikling, oppfølging og tilsyn, svarer Strümke.

Kontekst og bruk

NTNU-forskeren vil også ha på plass et eget algoritmetilsyn.

– Vi trenger et eget tilsyn som ikke er et datatilsyn. I dag er personvernet den eneste reguleringen vi foreløpig har å drive tilsyn opp mot. Vi har ikke en AI-regulering, og vi har ikke laget et tilsyn på intensjonene som ligger til grunn for utviklingen. Enn så lenge må vi vente på EUs AI Act, og da er vi tilbake til at det tar lang tid å skape reguleringer, sier hun.

Strümke sammenlikner ChatGPT med en bil.

– Brukes bilen riktig, er den veldig praktisk og gjør oss mer mobil, men hvis feil person bruker bil eller bruker bil i et miljø hvor den ikke skal være, slik som i en gågate, er den livsfarlig. Samme teknologi kan både være til gagn og til skade avhengig av hvordan den brukes. Er det noe vi regulerer, er det fungerende kjøretøy med stor motor. Vi har altså mange mekanismer og verktøy på plass allerede. Vi har en måte å formalisere tillit på, og et system vi kan prøve å få kunstig intelligens inn i.

AI-forskning på labben

Institutt for datateknologi og informatikk (IDI) ved NTNU forsker på brukergrensesnitt, databaseteknikk, datamaskinarkitektur, grafikk, kunstig intelligens, informasjonssystem, operativsystem, programmering, sikkerhet og systemutvikling.

På Norwegian Open AI Lab, eller AI-labben, pågår det flere forskningsprosjekter, deriblant:

· Energi: AI og maskinlæring brukes for å øke nøyaktigheten i spådommer om et komplekst og skiftende energimarked.

· Helse: Hvordan innovere helseteknologi og forbedre personlig tilpassede behandlinger.

· Mobilitet: Bruk av AI i utviklingen av autonome kjøretøy, slik som biler, skip og droner. Forskerne jobber også med å utvikle AI-teknologi som kan bidra til tryggere og mer sømløs reising.

· Hav: Labben utvikler og bruker AI for å sikre en bærekraftig utforskning av maritime sektorer, ved å forhindre tap av biologisk mangfold, forbedre fiskevelferden i akvakultur og sikre oppdrettsanlegg til havs. Det utvikles også robotikk for undervannsoperasjoner.

I tillegg forskes det på finans og digital økonomi, samt såkalte tilkoblingsapplikasjoner – blant annet.

KILDE: NTNU / Norwegian Open AI Lab

Powered by Labrador CMS