AI-systemer er under angrep på flere fronter samtidig. Sikkerhetsforskere sier de fleste sårbarhetene ikke har kjente rettelser.
De fire truslene
- Autonome agenter kapres for å utføre cyberangrep
- Treningsdata forgiftes for så lite som 250 dokumenter og $60
- Prompt injection lykkes mot 56% av språkmodeller
- Modell-repositorier inneholder hundretusenvis av ondsinnede filer
Første dokumenterte autonome angrep
I september avslørte Anthropic at kinesiske statsstøttede hackere hadde våpenisert Claude Code for det selskapet kalte «det første dokumenterte tilfellet av et storstilt cyberangrep utført uten vesentlig menneskelig inngripen».
Angriperne jailbrøt Claude Code ved å fragmentere ondsinnede oppgaver til tilsynelatende uskyldige forespørsler. Systemet utførte autonomt rekognosering, skrev exploit-kode og eksfiltrerte data fra rundt 30 mål.
«Null sikre systemer»
«Vi har null agentiske AI-systemer som er sikre mot disse angrepene.» — Bruce Schneier, Harvard Kennedy School
Adopsjon fortsetter likevel
Deloitte rapporterer at 23% av selskaper bruker AI-agenter moderat — og spår at dette øker til 74% innen 2028.
McKinsey viser at 80% av organisasjoner allerede har opplevd problemer, inkludert uriktig dataeksponering og uautorisert systemtilgang.
Dilemmaet
Sikkerhetsteam står nå overfor et umulig valg: Falle bak konkurrenter ved å unngå AI, eller deployere systemer med fundamentale feil som angripere allerede utnytter.