Denne klumme er et debatindlæg og er alene udtryk for skribentens synspunkter.
Forestil dig, at du sidder i videomøde med din chef, som er i udlandet.
Han fortæller dig om en ny spændende samarbejdspartner og beder dig sørge for, at der bliver straksoverført et forskud på 20.000 EUR til partneren i dag.
Du fikser overførslen og tænker ikke mere på den sag. Ikke før du et par timer senere noget overraskende møder din chef. Som ikke er i udlandet. Ikke har bedt dig overføre penge. Og ikke har haft videomøde med dig.
Kunstig intelligens (AI) og machine learning kan allerede i dag bruges til deep fake-video, hvor personers ansigter kan skiftes ud med andre ansigter, selv i live video som eksempelvis et telefonmøde. Det samme gælder stemmen.
Har hackerne for eksempel adgang til en video med din chef på YouTube, Facebook eller LinkedIn, vil de nemt kunne kopiere hans stemme med for eksempel softwaren Lyrebird.
Deep fake-teknologien er stadig avanceret, men vil i de kommende år blive mainstream.
Det vil betyde, at vi om en kort årrække har AI, der på den ene side kan benyttes til imponerende, harmløs underholdning, men som samtidig også bliver tilgængelig for cyberkriminelle, der kan misbruge den til avancerede svindelnumre som i eksemplet i indledningen.
Mange sikkerhedsproducenter, herunder også Trend Micro, gør allerede brug af den seneste AI for bedre at kunne detektere og afsløre ondsindet adfærd. Men AI er et tveægget sværd.
Den samme teknologi giver nemlig samtidig de cyberkriminelle helt ny muligheder for både at nedkæmpe traditionel sikkerhedsteknologi og udtænke nye angrebsformer.
Spørgsmålet, der lige nu bekymrer sikkerhedsbranchen, er, om udbredelsen af AI’en over de kommende år i sidste ende vil gøre det umuligt at stoppe de cyberkriminelle, eller om branchen er i stand til at forny sig og holde sig foran med nye innovative teknologier?
Angreb i stor skala med AI
Målrettede angreb, hvor cyberkriminelle går efter en bestemt virksomhed, organisation eller person, har indtil videre været rettet imod relativt få.
Det tager lang tid for en cyberkriminel at researche og forstå, hvordan det potentielle offers arbejdsgange er, hvad personen eller personerne er mest tilbøjelig til at klikke på etc.
AI kan i kombination med andre værktøjer gøre de cyberkriminelle i stand til at udføre målrettede angreb i enorm skala, fordi mange af analyseprocesserne vil kunne automatiseres.
Der kan udvikles værktøjer, som indsamler og analyserer data fra for eksempel LinkedIn og andre typer tredjepartsdata og som derudfra kan forudsige ofrenes adfærd.
Ved hjælp af disse oplysninger vil de cyberkriminelle kunne udføre tusindvis af målrettede angreb, hvor det enkelte offer modtager phishing-e-mails, som ved hjælp af AI er skræddersyede til netop deres personlige profil.
Hos Trend Micro bruger vi i dag AI i vores “Writing Style DNA”-teknologi, som kan analysere den enkelte brugeres skrivestil i e-mails for at kunne afsløre, hvis nogen udefra eksempelvis har fået adgang til direktørens e-mailkonto og sender beskeder i hendes navn.
Det type svindel kaldes 'business email compromise' eller direktørsvindel og har i løbet af de seneste tre år medført, at danske virksomheder er blevet snydt for 310 millioner kroner.
Ser man nogle år frem, vil den type svindel været langt sværere at afsløre, når de cyberkriminelle selv har adgang til AI, som kan analysere direktørens skrivestil, før de udfører svindelnummeret.
Hackere kan også benytte AI til at analysere brugernes webadfærd og på den måde forudsige, hvad det enkelte potentielle offer klikker mest på.
Ved hackerne, at du ofte besøger en bestemt webshop ved frokosttid, kan de kl. 11.50 sende dig en phishing-e-mail, som ser ud, som om det er en rabatkode til netop din yndlingswebshop. Du skal bare klikke på linket i mailen for at få rabatten ...
De cyberkriminelle kan flyve under radaren med AI
AI giver mulighed for at analysere adfærd og se mønstre, som mennesker ikke kan se.
Det giver hackerne en fordel, når formålet er at stjæle data uden at blive afsløret af den seneste sikkerhedsteknologi.
I dag er de fleste sikkerhedsteknologier designet til at holde øje med forskellige typer af usædvanlig aktivitet på virksomhedens netværk, fordi det kan indikere, at der er tale om en trussel.
Men hvad nu, hvis de cyberkriminelle er i stand til at skjule deres aktiviteter, som de på ingen måde ser usædvanlige ud? Så vil både normal og unormal aktivitet se ens ud. Så kan de kriminelle flyve under radar og bevæge sig rundt i virksomhedernes it-systemer uden at blive opdaget.
Vi er der ikke endnu, men ...
AI vil uundgåeligt ende som “as-a-service”-produkter i den cyberkriminelle undergrund – ligesom vi har set det med blandt andet ransomware.
Når det sker, vil stort set alle og enhver kunne leje teknologi, som gør det muligt at producere deep fake-livevideo.
Dermed vil enhver videostream kunne manipuleres, og ansigter på både virksomhedsledere og politikere vil kunne kopieres og sættes på cyberkriminelles ansigter som 100 procent vellignende masker.
Det får realismen og autenticiteten i nutidens BEC-angreb til at blegne med potentielle økonomiske og politiske katastrofer til følge.
Våbenkapløbet mellem sikkerhedsbranchen og de cyberkriminelle er ikke nyt. Det har været i gang de seneste 20 år.
Indtil videre har de gode trukket det længste strå.
Men AI har potentiale til at ændre balancen, fordi det kan gøre truslerne både langt sværere at gennemskue og gøre angrebene langt mere massive.
Vi er derfor nødt til at tænke fremtidens sikkerhed langt bredere og mere nuanceret end nutidens metoder og konstant arbejde for, at sikkerhedsbranchen er blandt de mest innovative og fremsynede i it-sektoren.
Klummer er læsernes platform på Computerworld til at fortælle de bedste historier, og samtidig er det vores meget populære og meget læste forum for videndeling.
Har du en god historie eller har du specialviden, som du synes trænger til at blive delt?
Læs vores klumme-guidelines og send os noget tekst, så kontakter vi dig - måske bliver du en del af vores hurtigt voksende korps af klummeskribenter.