Oxford-studie: AI-chatbotter gir unøyaktige medisinske råd

12. februar 2026 · AI-helse

En ny studie fra Oxford University viser at AI-chatbotter gir unøyaktig og inkonsekvent medisinsk rådgivning som kan utgjøre en risiko for brukere.

⚠️ Hovedfunn: Folk som brukte AI til helsespørsmål klarte ikke å skille mellom nyttig og unyttig informasjon. Chatbottene ga blandede svar avhengig av hvordan spørsmålet ble formulert.

Studien

Forskerne ga 1.300 personer ulike helsescenarioer — som å ha kraftig hodepine eller være en utmattet nybakt mor. Deltakerne ble delt i to grupper: én brukte AI, den andre ikke.

Forskerne evaluerte om folk korrekt identifiserte hva som kunne være galt, og om de burde gå til fastlege eller akutten.

«Folk deler informasjon gradvis. De utelater ting, nevner ikke alt. Så når AI listet opp tre mulige tilstander, måtte folk gjette hvilken som passet. Det er akkurat da ting går galt.»
— Dr. Adam Mahdi, seniorforfatteren bak studien

Problemene

Ekspert-reaksjoner

«En chatbot er bare så god som erfarne klinikere er — og de er heller ikke perfekte. I tillegg repeterer chatbottene fordommer som har vært bakt inn i medisinsk praksis i tiår.»
— Dr. Amber W. Childs, Yale School of Medicine

Veien videre

Dr. Bertalan Meskó fra The Medical Futurist påpeker at både OpenAI og Anthropic nylig har lansert helsededikerte versjoner av sine chatbotter, noe som kan gi bedre resultater i fremtidige studier.

Målet bør være å «fortsette å forbedre» teknologien med «klare nasjonale reguleringer og medisinske retningslinjer».

Kilde: BBC News