🗺️ AI sendte turister på jakt etter «skjult perle» — som ikke fantes

6. februar 2026

Stadig flere bruker ChatGPT til å planlegge ferien. Men i Australia fikk 24 turister en brutal påminnelse: AI-en fant på et sted som ikke eksisterer.

De hadde pakket badetøyet og reist til det avsidesliggende Tasmania for å bade i «Weldborough Hot Springs» — varme kilder midt i vill natur.

Problemet? Stedet finnes ikke. De fant bare en kald elv.

Hva skjedde?

En australsk turoperatørs nettside hadde omtalt de varme kildene som «en av områdets store attraksjoner i 2026». Artikkelen var sannsynligvis AI-generert — og inneholdet ren hallusinasjon.

Flere grupper dukket opp på stedet etter å ha lest anbefalingen. Nylig ankom en gruppe på 24 personer med samme forventning. Artikkelen ble senere fjernet.

⚠️ Dette er ikke et enkeltstående tilfelle:
  • 🇵🇪 Peru: Turister sendt til en «hellig canyon» som ikke eksisterte
  • 🇯🇵 Japan: Et par strandet på et fjell etter feil heistider fra chatbot
  • 💶 Europa: Reisende betalte 140 euro for å komme til en øde vei — uten destinasjon

Hvorfor skjer dette?

AI-chatbotter som ChatGPT «hallusinerer» — de finner opp informasjon som høres troverdig ut, men som er feil. Og når feil presenteres pent på en tilsynelatende seriøs nettside, spres de videre.

«Når feil presenteres i pen tekst på en tilsynelatende troverdig side, kan de raskt kopieres og bli oppfattet som fakta.»
— Anne Hardy, førsteamanuensis, Southern Cross University

Forskeren anslår at rundt 37% av turistene allerede bruker AI-verktøy for reisetips.

Slik beskytter du deg

✅ Ekspertenes råd:
  • Dobbeltsjekk steder i offisielle kilder
  • Se etter bekreftelser fra flere nettsteder
  • Vær skeptisk til «skjulte perler» ingen andre omtaler
  • Bruk Google Maps Street View for å verifisere at stedet finnes

AI kan være et nyttig verktøy for reiseplanlegging — men aldri en fasit. Ellers kan drømmeferien fort ende i en kald elv, langt unna nærmeste spa.