Kunstig intelligens og ansvarlighet: Slik forbereder du deg på den nye loven

26/04/23

kunstig intelligens

Kunstig intelligens blir stadig mer utbredt, og med det følger utfordringer. EU Artificial Intelligence Act, kalt AI-loven, er et viktig steg på veien for å sikre at denne teknologien blir brukt på en ansvarlig, etisk og lovlig måte. Samtidig kan den også begrense hvordan norske virksomheter får lov til å bruke kunstig intelligens.

Bruker du kunstig intelligens, må du følge loven

Laiz Tollefsen

EU Artificial Intelligence Act (English, PDF, 919 KB), AI-loven, er et foreslått regelverk fra EU som inneholder en risikobasert tilnærming for å regulere ulike typer applikasjoner knyttet til kunstig intelligens, fra forbudte praksiser til høyrisiko- og lavrisikometoder. Loven har som mål å fremme tillit, innovasjon og konkurranseevne, samtidig som den beskytter mennesker og miljø mot skadelige eller diskriminerende effekter av kunstig intelligens-modeller.

– Vi tror at loven blir vedtatt mot slutten av 2023, og vil gjelde direkte for selskaper som er etablert i EU-landene. Antakelig vil det gis en implementeringsperiode på mellom 24 og 36 måneder, men det er først hvis loven blir implementert i EØS-avtalen, at den vil gjelde for norske virksomheter, sier Laiz Batista Tellefsen. Hun er jurist og en del av PwCs globale nettverk innen utvikling og bruk av kunstig intelligens.

Alle bedrifter og offentlige aktører som vurderer å bruke kunstig intelligens eller å integrere kunstig intelligens-funksjoner i sine tjenester, vil måtte forholde seg til loven. Den vil introdusere ulike krav og forpliktelser for utviklere, leverandører og brukere av kunstig intelligens, som kvalitetskontroll, dokumentasjon, tilsyn, informasjon, menneskelig tilsyn og inngrep. 

Les også: Hva er kunstig intelligens

ChatGPT kan være nyttig og misbrukes

ChatGPT-teknologien har tatt verden med storm etter at den ble tilgjengelig i høst. ChatGPT er en forkortelse for chat generative pre-trained transformer og er i slekt med kunstig intelligens-modeller som bruker dyp læring og såkalte nevrale nettverk for å produsere tekst.

– Teknologien er et eksempel på en kunstig intelligens-teknologi som kan ha både positive og negative konsekvenser, avhengig av hvordan den blir brukt. ChatGPT kan brukes til ulike formål, som å lage dialoger, historier, sammendrag, oversettelser, spørsmål og svar og mer. Den kan også tilpasse seg ulike stiler, toner, emner og formål

Laiz Batista Tellefsen, jurist i PwC.

ChatGPT kan være et nyttig verktøy for kommunikasjon, underholdning, utdanning, forskning og kreativitet, men den kan også misbrukes til å spre falske, villedende, hatefulle eller skadelige meldinger, eller til å lure, manipulere eller utnytte mennesker.

Les også: Fem cyber-trender du må se opp for

Bruken av ChatGPT vil påvirke AI-loven

Den kommende loven vil også påvirke bruken av ChatGPT. Hva dette betyr for bruken, vil avhenge av hvordan ChatGPT blir klassifisert. Og dette vil igjen avhenge av hvordan teknologien skal brukes og til hvilke formål.

– Antakelig kan ChatGPT klassifiseres som et høyrisiko kunstig intelligens-system, hvis det brukes til formål som kan ha vesentlig innvirkning på menneskers liv, helse, sikkerhet, rettigheter, eller demokrati. Det kan for eksempel være hvis ChatGPT brukes til å påvirke politiske valg, til å manipulere, desinformere, eller til å utøve makt eller kontroll over mennesker. I slike tilfeller vil ChatGPT måtte oppfylle strenge krav til kvalitet, pålitelighet, gjennomsiktighet, menneskelig tilsyn, ansvarlighet, samt være underlagt forhåndsvurdering og sertifisering av uavhengige organer. Kravene til kvalitet, vurderinger og prosesser kan også føre til at ChatGPT ikke kan brukes helt som tiltenkt, sier Tellefsen.

Hvis ChatGPT derimot brukes til mer uskyldige eller underholdende formål, som å spille spill, skrive dikt, eller ha en vennlig samtale, vil loven antakelig ikke begrense bruken av ChatGPT. 

Det er også verdt å merke seg at det europeiske personvernrådet (EDPB) har etablert en ekspertgruppe for ChatGPT, hvor de skal se nærmere på teknologien og hvordan dette påvirker personvernet. Dette ble offentliggjort på EDPBs nettsider den 13. april, (åpnes i nytt vindu) i kjølvannet av at det italienske datatilsynet forbød OpenAI å behandle personopplysninger om italienske borgere. Vurderingene fra dette utvalget kan påvirke hvordan europeiske virksomheter bruker ChatGPT.

Slik kan norske virksomheter forberede seg på loven

AI-loven er ennå ikke vedtatt, så det er derfor vanskelig å forutsi nøyaktig hvordan den vil påvirke bruk av ChatGPT i fremtiden, og hvilke unntak eller tilpasninger som vil bli gjort. Likevel bør virksomheter allerede nå forberede seg:

  • Vurdere den nåværende og planlagte bruken av kunstig intelligens-systemer i planlagte aktiviteter og undersøke hvordan denne bruken kan klassifiseres etter den foreslåtte loven 
  • Ta initiativ til samtaler med relevante ansatte, leverandører og samarbeidspartnere som typisk blir involvert i beslutninger rundt bruk av kunstig intelligens i virksomheten for å diskutere mulige konsekvenser som loven kan ha for dem 
  • Hvis det er sannsynlig at eksisterende eller planlagt bruk av kunstig intelligens kan klassifiseres som høyrisiko eller forbudt etter loven, bør ledelsen diskutere hvilke midler som må dedikeres til å gjennomføre vurderingene og prosessen som loven vil kreve for å lovlig ta i bruk den relevante kunstig intelligens-modellen
  • Engasjere seg i relevante bransjeforeninger, standardiseringsorganer og etiske komiteer for å utveksle beste praksis, lære av andre og bidra til utviklingen av felles retningslinjer og etiske retningslinjer for kunstig intelligens
  • Overvåke lovgivningsprosessen og veiledningen fra EU-kommisjonen og nasjonale myndigheter om tolkning og implementering av loven, og gi tilbakemeldinger og innspill der det er mulig. 

Les også: Får hjelp av verdens mest moderne OpenAI-teknologi Harvey

Kontakt oss

Laiz Batista Tellefsen

Direktør, Stavanger, PwC Norway

905 33 663

Kontakt meg