Det er 2038. Ingen utviklere finnes lenger, kunstig intelligens har fått litt regulering og Carl I Hagen sitter fortsatt på Stortinget. Du føler deg litt småsyk, og drar til din lokale AI-fastlege™. En halvdystopisk robot ruller over gulvet og tar noen blodprøver. Du taster inn de andre symptomene dine på en interaktiv skjerm og venter spent. Snart, med en nesten uhyggelig effektivitet, vises diagnosen tydelig på skjermen foran deg. Stoler du på den?
5 min read
·
By Johannes Lars Helge Padel
·
December 24, 2023
Se for deg at du er i situasjonen beskrevet ovenfor. Stoler du mest på diagnosen fra din AI-fastlege™ der du får en forklaring på hvorfor du fikk den diagnosen, eller fra en der du ikke får noe forklaring?
Uten å tilegne andre mennesker meninger, vil jeg påstå at brorparten velger førstnevnte. Derfor burde kanskje din AI-fastlege™ bruke gode, gamle lineære modeller.
Grøss og gru tenker du kanskje, og mimrer kanskje litt tilbake til statistikk-faget fra studietiden. Husker noen hypotesetesting, konfidensintervall og momentgenererende funksjon? Hva er vitsen med å forholde seg til slike ting, når legen din kan bruke maskinlæringsmodeller som kunstige nevrale nettverk der vi gjerne får langt mer presise diagnoser?
Først og fremst, la oss definere hva jeg mener med maskinlæring i denne konteksten. Enkelt forklart: Vi presenterer en maskinlæringsmodell med en gitt input og det ønskede outputet. Deretter, når vi introduserer ny, ukjent input til modellen, forventer vi at den genererer et passende output basert på hva den tidligere ble lært opp til. For din AI-fastlege™, se for deg input som symptomer, og output som diagnose. Dette kalles supervised learning.
Forklarbarhet.
Det er ekstremt viktig å forstå hvorfor en modell tar de valgene den gjør, av flere årsaker. Hvordan vil en endring i symptomene påvirke diagnosen, og hvorfor?
Når brukere og beslutningstakere forstår hvordan en modell fungerer og tar beslutninger, øker det tilliten til systemet. Dette er spesielt viktig i anvendelser der beslutninger tatt av en AI kan ha store konsekvenser, for eksempel innenfor:
Forklarbarhet er også viktig for etisk bruk av AI og maskinlæring. Det hjelper til med å sikre at AI-systemer og maskinlæringsmodeller ikke forsterker bias eller diskriminerer, og at de opptrer i tråd med samfunnsmessige normer og verdier.
Dette blir litt mer teknisk, men det handler i grunn om modellstruktur og kompleksitet.
Det kan være nyttig med et simpelt, konkret eksempel for å vise hvordan og hvorfor en enkel lineær modell er lett å forklare. Anta at din AI-fastlege™ har en modell for å predikere sannsynligheten for at en pasient har en bestemt sykdom, for eksempel halsbetennelse, basert på forskjellige symptomer. Et av symptomene vi ser på er feber. I denne modellen vil hver forklaringsvariabel, som feber, ha en tilhørende koeffisient som kvantifiserer dens innvirkning på diagnosen.
Si at koeffisienten for feber i modellen er 9. Dette tallet indikerer hvor mye sannsynligheten for halsbetennelse øker for hver enhet økning i feber, hvis ingen andre forklaringsvariabler endrer seg.
Anta at en pasient uten feber har en 20% sannsynlighet for å bli diagnostisert med halsbetennelse, ifølge modellen. Hvis denne pasienten deretter utvikler en feber som er 1 grad over gjennomsnittet, vil den økte sannsynligheten for sykdommen være
20% + 1 × 9 =20% + 9 = 29%
Denne direkte og kvantifiserbare sammenhengen mellom symptomer og diagnoser i en slik lineær modell gjør den mer forklarbar og transparent sammenlignet med komplekse modeller som nevrale nettverk, hvor slik direkte tolkning ofte er umulig.
Dog er fremtiden potensielt lys for de mer kompliserte maskinlæringsmodellene der ute i verden. Det har kommet metodikker som f.eks SHAP-verdier, som er utviklet for å gi innsikt i komplekse maskinlæringsmodeller sine beslutningsprosesser, noe jeg selv brukte i min masteroppgave. Selv om disse metodene har en del potensiale, er de fortsatt i en tidlig fase og anses derfor som umodne.
Så når vi er i 2038, og du får valget mellom en fastlege som enten er basert på lineær regresjon, eller på nevrale nettverk, velg med omhu ;) God jul!
Disclaimer: Jeg håper egentlig ikke at fastlegen din kommer til å diagnosistere deg basert på lineær regresjon, eksempelet er satt på spissen for å understreke et poeng.