Ny rapport: Kontinuerlig kvalitetssikring avgjørende for pålitelig kunstig intelligens

Kunstig intelligens tas i bruk i høyt tempo, også i kritisk infrastruktur. Ifølge en ny rapport fra DNV endrer kunstig intelligens risikobildet fundamentalt: Teknologien er ikke en fast og forutsigbar komponent, men utvikler seg over tid. Dette gir nye former for systemrisiko, som krever kontinuerlig kvalitetssikring for å sikre ansvarlig bruk.

Den nye forskningsrapporten, Assurance of AI-Enabled Systems, bygger på DNVs flere tiår lange erfaring med kvalitetssikring og risikostyring innen kritisk infrastruktur, inkludert maritime næringer og energisektoren. Rapporten presenterer grunnleggende konsepter og prinsipper for å forstå risiko og oppnå pålitelig kunstig intelligens. 

Astrid Rusås Kristoffersen, DNV
Astrid Rusås Kristoffersen, forskningsdirektør i DNV

– For å sikre pålitelig kunstig intelligens må vi forstå hele systemet, håndtere kompleksitet steg for steg, og sikre kontinuerlig kvalitetssikring etter hvert som systemene utvikler seg, sier Astrid Rusås Kristoffersen, forskningsdirektør i DNV.

Rapporten peker på at kunstig intelligens introduserer et helt annet risikobilde enn tradisjonelle systemer. Kunstig intelligens påvirker hele systemet den inngår i, både hvordan systemene oppfører seg og hvordan mennesker samhandler med dem.  

Virksomheter som tar i bruk kunstig intelligens, må forstå en rekke ulike aspekter. Dette inkluderer selve KI-modellen, plattformen den er bygget på, det fysiske systemet den brukes i, og konteksten den opererer i. Hyppige oppdateringer, distribuert ansvar og styring, samt iboende uforutsigbarhet gir helt nye utfordringer når det gjelder kvalitetssikring.  

Der tradisjonelle metoder legger opp til punktvise kontroller, krever moderne KI-systemer en løpende og helhetlig tilnærming. Betydningen av dokumentert effekt som viser hvordan påstander om sikkerhet og pålitelighet støttes av testdata, overvåking og risikomodeller, understrekes i rapporten.

Eksisterende risikoprinsipper kan benyttes 

Ifølge DNV kan etablerte prinsipper for risikostyring tilpasses for å håndtere kompleksiteten og usikkerheten i KI-systemer. Det finnes allerede velprøvde metoder for å håndtere disse risikoene, fra forskning og erfaringer fra sikkerhetskritiske domener, som kan kombineres med operative rammeverk for kunstig intelligens. 

Christian Agrell, DNV
Christian Agrell, programdirektør for KI-forskning i DNV

– Selv om kunstig intelligens skaper nye former for systemrisiko, gir velprøvde metoder fra sikkerhetskritiske industrier et solid grunnlag for å håndtere dem. Pålitelig kunstig intelligens handler om å skape forutsigbar atferd i møte med usikkerhet. Når vi kombinerer moderne risikometoder med kontinuerlig monitorering tilpasset kunstig intelligens, kan vi utvikle systemer som oppfører seg robust, også når omgivelsene endrer seg, sier Christian Agrell, programdirektør for KI-forskning i DNV.
 
Rapporten er en del av DNVs arbeid for å hjelpe industrien med å ta i bruk kunstig intelligens på en ansvarlig måte, og er i tråd med selskapets anbefalte praksis for pålitelig kunstig intelligens (DNV-RP-0671).

Last ned rapporten