⚠️ AI-chatbotter i helsevesenet: Største teknologirisiko for 2026

6. februar 2026

Misbruk av AI-chatbotter som ChatGPT, Gemini og Copilot i helsevesenet er den største helseteknologirisikoen for 2026, ifølge den amerikanske pasientsikkerhetsorganisasjonen ECRI.

I sin årlige rapport over de 10 største helseteknologifarene advarer ECRI om at stadig flere helsearbeidere og pasienter bruker generelle AI-chatbotter til medisinske spørsmål — uten å forstå begrensningene.

⚠️ Viktig: ChatGPT, Gemini og Copilot er ikke medisinsk utstyr. De er ikke FDA-godkjent for helseformål. Men mange bruker dem likevel til medisinske råd.

Hvorfor er dette farlig?

ECRI peker på flere alvorlige problemer:

«Store språkmodeller forstår ikke hva de sier. De forutsier det neste ordet basert på mønstre i dataene de er trent på.»
— Dr. Christie Bergerson, ECRI

Hvem bruker AI-chatbotter feil?

Ifølge ECRI brukes chatbotter feil på flere måter i helsevesenet:

📊 De 10 største helseteknologifarene for 2026 (ECRI)
  1. Misbruk av AI-chatbotter
  2. Mangel på beredskap for «digital mørke»-hendelser
  3. Forfalskede og substandard medisinske produkter
  4. Tilbakekallingsfeil for diabetes-utstyr
  5. Feilkoblinger av sprøyter/slanger
  6. Underutnyttelse av medisinsikkerhetsteknologi
  7. + fire andre (se fullstendig rapport)

Hva kan gjøres?

ECRI anbefaler:

Norge: Hva bør vi tenke på?

Selv om ECRI-rapporten er amerikansk, er problemstillingen like relevant i Norge: