Denne klumme er et debatindlæg og er alene udtryk for forfatterens synspunkter.
Store sprogmodeller (Large Language Models, også kaldet LLM) driver den eksplosive vækst af generativ AI og kan revolutionere den måde, som fremtidens it-sikkerhedsteams sikrer produkter på, før de når markedet.
Nu peger sikkerhedseksperter imidlertid på, at LLM også vil kunne hjælpe hackere med at udnytte sårbarheder i virksomheders og organisationers it-systemer.
Det er en risiko, der skal tages alvorligt, men alligevel mener jeg, at der er mere grund til optimisme end bekymring – i hvert fald for nu.
Ikke designet til hacking
De nævnte sikkerhedseksperter påstår, at hvis hackere giver OpenAI's GPT-4 de relevante CVE-beskrivelser, vil AI’en være i stand til at udnytte 87 procent af sårbarhederne.
CVE står for "Common Vulnerabilities and Exposures," som er et standardiseret system til at identificere og beskrive sikkerhedssårbarheder i software og hardware med.
Det er et alarmerende perspektiv. Men der er flere grunde til at forholde sig roligt i forhold til den potentielle trussel fra LLM'er.
Ja, teknologien kunne bruges til at generere kodeeksempler til almindelige udnyttelser, hvis hackerne er i stand til at formulere spørgsmålet korrekt.
Ser vi på SQL-injektion som eksempel, kunne en hacker bede AI’en om at generere en række payloads for at teste forskellige inputfelter i en webapplikation og se efter SQL-injektionssårbarheder.
De kunne også indsætte payloads i webapplikationen og analysere svarene.
Hvis svaret ændrer sig på en måde, der indikerer en vellykket injektion, kan yderligere udnyttelse være mulig.
Baseret på de indledende resultater kunne hackeren bede AI’en om at generere mere sofistikerede payloads eller prøve forskellige teknikker for at få dybere adgang eller udtrække data.
Men her går grænsen for, hvad AI kan bruges til, når det kommer til at misbruge sårbarheder.
Selv om GPT-4 og de GenAI-værktøjer, der bruger den, er kraftfulde teknologier til naturlig sprogbehandling og -generering, er de ikke eksplicit designet til autonom hacking eller komplekse angreb.
De kan generere kode og foreslå mulige udnyttelser, men kan ikke direkte interagere med systemer eller udføre kommandoer autonomt.
De er afhængige af eksterne scripts eller menneskelige operatører til at udføre handlinger i virkelige systemer, hvilket begrænser deres evne til at handle uafhængigt.
Udnyttelse er svært
Udgangspunktet er stadig, at det er svært at finde og udnytte fejl i software – især i kommerciel software, hvor kildekoden ikke er tilgængelig.
AI har svært ved at foretage reverse engineering af kode for at finde sårbarheder.
Og endnu sværere ved at gå et skridt videre og skrive vellykkede exploits.
Kun 5-10 procent af alle fejl bliver faktisk udnyttet, hvilket understreger, hvor udfordrende processen er.
Det er især svært at finde nul-dags sårbarheder, fordi det kræver nye og kreative tilgange, der ligger uden for den metode, LLM'er bruger til at generere ny kode.
Den nævnte forskning fokuserede på AI, der brugte offentlige data til at skabe en udnyttelse.
AI’en finder egentlig ikke en ny udnyttelse som sådan, men arbejder ud fra information, der allerede er kendt. Det britiske National Cyber Security Centre (NCSC) er enig.
"AI vil sandsynligvis hjælpe med malware- og udnyttelsesudvikling, sårbarhedsforskning og lateral bevægelse ved at gøre eksisterende teknikker mere effektive," bemærker NCSC i en vurdering fra januar 2024.
"Men på kort sigt vil disse områder fortsat være afhængige af menneskelig ekspertise, hvilket betyder, at enhver styrkelse af hackernes evner højst sandsynligt vil være begrænset til eksisterende trusselsaktører, der allerede har evnerne."
Hjælper de gode
Allerede i dag vil AI kunne yde en hjælpende hånd til pressede it-, udviklings- og sikkerhedsteams.
Det gør AI ved at indsamle information om mulige sårbarheder, opsummere detaljer om kendte udnyttelser og måske foreslå værktøjer eller teknikker til brug i penetrationstest.
Modeller kunne også trænes til at gennemgå kode for problemer, inden et produkt lanceres – hvilket sparer DevSecOps-teams (det vil sige de grupper inden for softwareudvikling, der integrerer udvikling (Development), sikkerhed (Security) og drift (Operations) i én sammenhængende proces) tid og penge i udviklingsprocessen og forebygge den økonomiske og omdømmemæssige risiko.
Man kan også bruge AI sammen med mere traditionelle værktøjer og teknikker som fuzzing og sårbarhedsscanning. Fuzzing er en softwaretestteknik, der bruges til at finde sikkerhedsfejl og andre bugs i software ved at generere tilfældige eller semitilfældige inputdata og indsætte dem i en applikation.
Fuzzing er stadig en mere effektiv teknologi end LLM-baseret AI til at finde fejl i lukkede applikationer, mens sårbarhedsscanning er bedre til at finde sårbare systemer på et netværk.
Et øje på fremtiden
Vi må dog ikke føle os alt for sikre på, at AI’en ikke udvikler sig til en seriøs trussel.
Hastigheden på den teknologisk innovation inden for AI er forbløffende.
Og vi kan ikke antage, at LLM'er altid vil have sværere end mennesker ved at opdage og udnytte sårbarheder.
Efterhånden som AI-modellernes evner øges og forbedres, vil det være afgørende, at AI-designere bygger robuste sikkerhedsforanstaltninger ind i deres værktøjer for at undgå misbrug.
Ved at kombinere tekniske kontroller, etiske retningslinjer og kontinuerlig overvågning kan vi udnytte fordelene ved LLM'er og samtidig minimere risikoen for, at de misbruges i autonom hacking og andre ondsindede aktiviteter.
Fremtiden for sårbarhedsudnyttelse er uvis, men én ting er sikker: AI vil være i centrum på den ene eller den anden måde.
Klummer er læsernes platform på Computerworld til at fortælle de bedste historier, og samtidig er det vores meget populære og meget læste forum for videndeling.
Har du en god historie, eller har du specialviden, som du synes trænger til at blive delt?
Læs vores klumme-guidelines og send os din tekst, så kontakter vi dig - måske bliver du en del af vores hurtigt voksende korps af klummeskribenter.