Oxford-studie: AI-chatbotter gir unøyaktige medisinske råd
En ny studie fra Oxford University viser at AI-chatbotter gir unøyaktig og inkonsekvent medisinsk rådgivning som kan utgjøre en risiko for brukere.
Studien
Forskerne ga 1.300 personer ulike helsescenarioer — som å ha kraftig hodepine eller være en utmattet nybakt mor. Deltakerne ble delt i to grupper: én brukte AI, den andre ikke.
Forskerne evaluerte om folk korrekt identifiserte hva som kunne være galt, og om de burde gå til fastlege eller akutten.
«Folk deler informasjon gradvis. De utelater ting, nevner ikke alt. Så når AI listet opp tre mulige tilstander, måtte folk gjette hvilken som passet. Det er akkurat da ting går galt.»
Problemene
- Folk visste ofte ikke hva de skulle spørre om
- Samme spørsmål formulert ulikt ga forskjellige svar
- Chatbottene ga blandede svar med både riktig og feil info
- Vanskelig å skille nyttig fra unyttig informasjon
Ekspert-reaksjoner
«En chatbot er bare så god som erfarne klinikere er — og de er heller ikke perfekte. I tillegg repeterer chatbottene fordommer som har vært bakt inn i medisinsk praksis i tiår.»
Veien videre
Dr. Bertalan Meskó fra The Medical Futurist påpeker at både OpenAI og Anthropic nylig har lansert helsededikerte versjoner av sine chatbotter, noe som kan gi bedre resultater i fremtidige studier.
Målet bør være å «fortsette å forbedre» teknologien med «klare nasjonale reguleringer og medisinske retningslinjer».