Det kan godt være, at AI betragtes som et relativt nyt fænomen – men teknologien blev faktisk allerede introduceret i cybersikkerhedsarbejdet i slutningen af 1980’erne som et værktøj til at opdage unormal aktivitet. Siden har de forskellige typer AI udviklet sig hastigt, og navnlig i de senere år, hvor den har vist evne til at løse en række opgaver hurtigere og mere præcist end mennesker.
Men AI fungerer ikke i et vakuum. Teknologien er afhængig af menneskeligt input og alt, der kræver menneskeligt input, kan bruges både konstruktivt og skadeligt.
De nuværende store sprogmodeller (LLM’er) har vist betydeligt potentiale indenfor bl.a. kodning, men de har endnu ikke for alvor revolutioneret trusselsaktørernes metoder til at få adgang til systemer. Det kan do hurtigt ændre sig. Generativ AI udvikler sig med hidtil uset hastighed, og på få år har vi set en markant forbedring i evnen til at generere tekst, lyd, billeder og video.
Så reelt er spørgsmålet ikke længere, om AI vil ændre cyberangreb – men hvordan det allerede sker.
AI gør det f.eks. lettere at udvikle malware, skabe overbevisende phishing-angreb og automatisere samt orkestrere angrebsforløb. Så selv om AI altså endnu ikke har evnen til at tænke strategisk som et menneske, så øger teknologien både kompleksitet, rækkevidde, hastighed og effektivitet af de angreb, som finder sted.
Sikkerhedsteams skal derfor være på forkant og både forstå, hvordan AI kan bruges som forsvar – og hvordan modstanderen allerede anvender teknologien offensivt.
Er din branche blandt dem, der står forrest i skudlinjen? Hent analysen og se, hvor truslerne vokser mest markant.
Chatbots baner vejen for effektive angreb
Social engineering er en billig og effektiv måde for trusselsaktører at omgå tekniske sikkerhedsforanstaltninger på – og nye AI-værktøjer, især generativ AI, gør det endnu lettere at gennemføre overbevisende angreb.
Med lanceringen af ChatGPT i november 2022 fik offentligheden for alvor øjnene op for chatbotternes potentiale.
De mest avancerede chatbots i dag med en metode kaldet “reinforcement learning from human feedback” (RLHF), som gør dem i stand til bedre at efterligne menneskelig samtale og levere mere præcise og relevante svar.
Takket være denne træning kan chatbots løse en bred vifte af opgaver lige fra at skrive og fejlrette kode til at give teknisk rådgivning og besvare komplekse spørgsmål. De kan endda skrive historier og udkast til f.eks. sketches. Chatbots er dog langtfra ufejlbarlige og leverer ind i mellem vildt forkerte svar, hallucinerer og ”finder på” informationer eller roder rundt i fakta.
Det ændrer dog ikke på, at de AI-baserede chatbots og LLM’er på en lang række områder repræsenterer et betydeligt fremskridt.
Og med deres evne til bl.a. at skrive og fejlrette kode var det kun et spørgsmål om tid, før nogen begyndte at bruge chatbots til ondsindede formål. I juni 2023 kom det f.eks. frem, at ChatGPT’s API kunne bruges til at udvikle polymorf (”muterende”) malware med evnen til at ændre sig selv for at undgå at blive opdaget af IT-sikkerhedsværktøjer.
AI ændrer cybertruslen – men ikke alle brancher er lige udsatte. Se hvor risikoen er størst i aktuel analyse.
Flere fejlfrie og lokkende phishing-beskeder i din indbakke
De nyeste phishing-trusler, der rammer organisationer verden over, er i vid udstrækning baseret på AI-modeller, som kan generere særdeles troværdige og fejlfrie beskeder. Hvilket selvsagt øger sandsynligheden for, at modtagerne bider på.
Disse avancerede social engineering-angreb kan bane vejen for efterfølgende angreb med ransomware eller BEC-angreb (business email compromise), som i forvejen er blandt de mest skadelige typer cyberkriminalitet.
Ifølge FBI’s seneste Internet Crime Report blev der allerede i 2023 indberettet 21.489 BEC-sager, der i alt medførte tab for over 2,9 milliarder USD.
Ifølge en ny undersøgelse fra Arctic Wolf baseret på svar fra 1.000 ledere i IT- og IT-sikkerhedsbranchen har 70 pct. af de adspurgte organisationer været mål for BEC-angreb det seneste år. Ud af dem lykkedes det for blot 21 pct. at afværge angrebet.
BEC-angreb har traditionelt været målrettet finansfunktioner og brugere med mulighed for at foretage betalinger på vegne af en organisation eller virksomhed. Et typisk eksempel kan være, at en person udgiver sig for at være adm. dir. og beordrer en ansat i bogholderiet betale en faktura akut.
Men de seneste år har vi set en tendens til, at angriberne kaster nettet bredere ud og ofte med betydelig succes. For eksempel ved at man anvender AI til at målrette angreb mod mål, der måske forekommer mindre oplagte – men hvor man derfor også ofte er mindre på vagt. Som for eksempel produktionsvirksomheder, skoler eller foreninger.
Her gør generativ AI det både muligt og meget nemt for angriberne at eliminere ét af de ellers mest pålidelige tegn på, at man er ved at blive forsøgt scammet: Nemlig de skabelonagtige e-mails fyldt med stave- og grammatikfejl. Her kan AI lynhurtigt generere skræddersyede, fejlfri beskeder, som lettere slipper gennem virksomhedens sikkerhedsforanstaltninger – og derfor også langt nemmere narrer medarbejderne.
Mange brancher undervurderer deres risikoprofil. Er din en af dem? Få svaret i analysen "Cybersikkerhed 2025"
Deepfakes og vishing: Falske stemmer i røret
Generativ AI har også sænket tærsklen for at skabe overbevisende deepfakes –manipulerede videoer, billeder og lydoptagelser – som kan gøre phishingangreb endnu mere effektive.
Navnlig er Voice phishing, også kaldet vishing, i vækst. Blandt andet fordi angribere udgiver sig for at være virksomhedens egne medarbejdere og målretter deres angreb mod callcentre, helpdesks og andre supportfunktioner, der kan udløse adgang. For eksempel via nulstilling af passwords.
Men selv livevideo kan i dag manipuleres, så angriberen fremstår som en reel ansat, og værktøjerne kræver kun nogle få billeder, som nemt kan hentes fra LinkedIn eller en åben profil på sociale medier.
Så uden en pålidelig metode til fjernidentifikation, vil alle fjernsupportfunktioner fortsat være oplagte mål for AI-drevne angreb. Og her bør man gøre sig klart, at traditionelle sikkerhedsspørgsmål ikke slår til, men at fysiske sikkerhedsnøgler derimod er langt mere effektive.
Hårdt mod hårdt: Lad AI hjælpe med at beskytte mod AI-baserede angreb
Risiciene ved AI-forstærkede cyberangreb er tydelige. Men den gode nyhed er, at de samme teknologier også kan bruges konstruktivt. Nemlig ved at du kan anvende AI til at beskytte dine systemer mere proaktivt og effektivt.
Ifølge rapporten The Human — AI Partnership fra Arctic Wolf vurderer 64 pct. af de adspurgte, at deres organisation i høj grad sandsynligvis vil implementere en AI-baseret løsning. Optimismen skyldes især troen på, at AI kan forbedre den overordnede sikkerhedstilstand – især når det gælder “analyse af sikkerhedsdata” og “forbedret synlighed” i organisationens miljø.
32 pct. vurderer således, at AI vil forbedre deres evne til at opdage trusler. 21 pct. ser potentiale for automatiseret respons og genopretning, mens yderligere 21 pct. håber på at kunne automatisere gentagne, tidskrævende opgaver for analytikere.
Men selv om interessen er stor, er der også en vis tøven omkring AI. Undersøgelsen viste således, at under en fjerdedel (22 pct.) planlægger at bruge størstedelen af cybersikkerhedsbudgettet på AI-løsninger. Og kun omkring en tredjedel (36 pct.) betragter det som en topprioritet at indføre AI-baserede værktøjer for at styrke cybersikkerheden.
Denne tøven skyldes bl.a. den opfattede eller forventede kompleksitet ved at implementere og anvende teknologien, mangel på specialiseret personale – samt naturligvis stramme IT- og IT-sikkerhedsbudgetter.
Tilbage står dog, at de mest robuste cybersikkerhedsstrategier kommer til at opstå i et tæt samarbejde mellem mennesker og AI. Ikke mindst fordi den kombinerede tilgang, hvor menneskelig erfaring og AI’s kapacitet spiller sammen, gør det muligt at opdage og reagere hurtigere på trusler og samtidig styrke organisationens modstandskraft over for fremtidens cybertrusler.
Fremtidens cybersikkerhed handler således ikke om at erstatte mennesker med AI. Men om at lade mennesker styre og forfine AI, så den udgør et stærkt værn mod næste generation af trusler.
Dine trusler starter måske et andet sted, end du tror. Læs her hvilke sektorer hackerne sigter efter i 2025.
Sådan opnår du bedre beskyttelse i dag
For at beskytte din organisation mod phishing og andre former for social engineering – uanset om AI er involveret eller ej – bør du stræbe efter at opbygge en stærk sikkerhedskultur gennem effektiv awareness-træning.
Undervisningen bør undgå at placere skyld, tage udgangspunkt i virkelige angreb samt bestå af korte, fokuserede lektioner med ét emne ad gangen.
Derudover bør der implementeres e-mail- og identitetskontroller. Det kan f.eks. være ved at begrænse modtagelse af eksterne e-mails, brug af specialiserede sikkerhedsprodukter og indførelse af moderne, phishing-resistent multifaktorautentificering (MFA). Det vil hjælpe brugerne med at genkende, afværge og undgå phishingangreb.
..og sådan beskytter du dig i morgen
Gennemfør netværkssegmentering og indfør princippet om least privilege (mindst mulige adgang), så systemer isoleres og angribere ikke får frit spillerum – selv hvis det lykkes for dem at trænge ind på dele af jeres infrastruktur.
Sæt aktivt ind for at begrænse svagheder i sikkerheden. For eksempel ved at løbende at gennemføre audits for at identificere – og efterfølgende lukke – sårbarheder. Ligesom det også kan være en god idé at afholde både penetrationstests og beredskabsøvelser for at identificere svagheder og blinde vinkler.
Samarbejd med en sikkerhedsleverandør, der tilbyder realtids-overvågning 24/7 – på tværs af endpoints, netværk, identitet og cloud – så I kan opdage og stoppe trusselsaktiviteter hurtigere.
Så selv om der er mange trusler at forholde sig til, så er der også gode muligheder for at agere proaktivt, så angriberne ikke får held med at tage din virksomhed eller jeres data som gidsel.