Slik vil KI endre psykisk helsevern
En ny og fritt tilgjengelig kommentarartikkel i et av verdens fremste psykiatri-tidsskrifter oppsummerer status for kunstig intelligens (KI) i psykisk helsevern og -arbeid. De gir også anbefalinger om veien videre.
– Klinikere trenger ikke bli eksperter på generativ KI, men bør sette seg inn i hva teknologien er i stand til, og de fordeler og den risiko KI har. Dette er første skritt i retning av mer informerte beslutninger om hvilken rolle KI kan og bør ha i psykisk helsevern, skriver de.
Kan diagnostisere og finne behandling
Forskning har vist at KI kan:
1. Diagnostisere. KI kan diagnostisere psykisk sykdom gjennom enkle spørreskjemaer.
– Det fremtidige målet for KI i diagnostikk bør være å integrere informasjon fra klinisk undersøkelse med pasientens egen fortelling, genetikk, billeddiagnostikk og klinisk vurdering. Dermed kan man komme frem til nye diagnostiske kategorier som i større grad enn nå reflekterer den underliggende lidelsen, og gir praktisk veiledning i hvordan sykdommen effektivt kan behandles.
2. Finne behandling. KI kan bidra til å velge riktig legemiddel, men studiene ligger langt fra den kliniske virkeligheten og har også andre svakheter. I tillegg er ChatGPT vist å gjøre feil som var vanskelige å oppdage selv for eksperter.
– Målet med KI i behandling bør være å gi bedre behandlingsresultater, understreker forskerne.
De første endringene
De første endringene vil komme på andre områder enn diagnostikk og behandling:
- rutinemessig kontorarbeid, eksempelvis fakturering
- klinisk dokumentasjon
- medisinsk utdanning
- rutinemessig overvåking av symptomer
Endringene vil være dyptgripende, og de vil trolig skje raskt. Sommeren 2023 kunngjorde den største elektroniske journalleverandøren i USA, Epic Systems, at de samarbeider med OpenAI for å integrere ChatGPT-teknologi.
Tre store utfordringer
De tre største utfordringene rundt KI er i øyeblikket:
- Mangel på personvern. Dagens KI-samtaleroboter (chatbots) er ikke i stand til å beskytte personlige helseopplysninger. I fjor gikk den amerikanske psykiatriforeningen (APA) ut og rådet leger til aldri å legge pasientinformasjon inn i en samtalerobot. Det vil bli opp til helsemyndighetene å vurdere når samtalerobotene oppfyller kravene til personvern.
- Manglende engasjement. Folk bruker i liten grad helseapper, og dette kan vi lære av. Utfordringen gjelder ikke bare pasientene ettersom klinikerne er en vel så stor barriere. Den må møtes med opplæring, takster og hensyn til arbeidsflyten i klinikerens hverdag.
- Manglende integrasjon. KI må integreres med helsetjenestene. Selvhjelpsprogrammer som ikke er integrerte er raskt på vei ut, ettersom en har sett at de ofte gir fragmentert hjelp, ikke enkelt kan brukes i større målestokk, og bare sjelden er bærekraftige. Vi må vite hvordan KI virker inn på og påvirkes av alle aspekter av helsetjenesten. Dette må klinikere, pasienter, pårørende og helseadministrasjonen samarbeide om.
Må tenke nytt
Artikkelforfatterne er ikke overbevist om at KI vil bli et universalmiddel, og de viser til tjenester som så langt ikke har gitt overveldende resultater:
- Selvhjelpsbøker har vært tilgengelige i over hundre år
- Samtaleroboter (Chatbots) i over 60 år
- Gratis kognitiv atferdsterapi og chatterom i nesten 30 år
- Smarttelefonbaserte helseapper innen psykisk helse i over ti år
Forskerne konkluderer med at målene med å ta i bruk KI i forebygging ikke bør være å gjenskape tidligere arbeid. I stedet bør en utvikle nye modeller, som er:
- personlig tilpasset
- følsomme for miljø og kultur
- skalerbar (kan nå mange)
- effektiv for brukere i alle land og regioner
Les hele artikkelen: Generative artificial intelligence in mental health care: potential benefits and current challenges (World Psychiatry)