🗺️ AI sendte turister på jakt etter «skjult perle» — som ikke fantes
Stadig flere bruker ChatGPT til å planlegge ferien. Men i Australia fikk 24 turister en brutal påminnelse: AI-en fant på et sted som ikke eksisterer.
De hadde pakket badetøyet og reist til det avsidesliggende Tasmania for å bade i «Weldborough Hot Springs» — varme kilder midt i vill natur.
Problemet? Stedet finnes ikke. De fant bare en kald elv.
Hva skjedde?
En australsk turoperatørs nettside hadde omtalt de varme kildene som «en av områdets store attraksjoner i 2026». Artikkelen var sannsynligvis AI-generert — og inneholdet ren hallusinasjon.
Flere grupper dukket opp på stedet etter å ha lest anbefalingen. Nylig ankom en gruppe på 24 personer med samme forventning. Artikkelen ble senere fjernet.
- 🇵🇪 Peru: Turister sendt til en «hellig canyon» som ikke eksisterte
- 🇯🇵 Japan: Et par strandet på et fjell etter feil heistider fra chatbot
- 💶 Europa: Reisende betalte 140 euro for å komme til en øde vei — uten destinasjon
Hvorfor skjer dette?
AI-chatbotter som ChatGPT «hallusinerer» — de finner opp informasjon som høres troverdig ut, men som er feil. Og når feil presenteres pent på en tilsynelatende seriøs nettside, spres de videre.
«Når feil presenteres i pen tekst på en tilsynelatende troverdig side, kan de raskt kopieres og bli oppfattet som fakta.»
— Anne Hardy, førsteamanuensis, Southern Cross University
Forskeren anslår at rundt 37% av turistene allerede bruker AI-verktøy for reisetips.
Slik beskytter du deg
- Dobbeltsjekk steder i offisielle kilder
- Se etter bekreftelser fra flere nettsteder
- Vær skeptisk til «skjulte perler» ingen andre omtaler
- Bruk Google Maps Street View for å verifisere at stedet finnes
AI kan være et nyttig verktøy for reiseplanlegging — men aldri en fasit. Ellers kan drømmeferien fort ende i en kald elv, langt unna nærmeste spa.