Denne klumme er et debatindlæg og er alene udtryk for forfatterens synspunkter.
Det er svært for tiden at få øje på en større gamechanger inden for it-sikkerhed (samt mange andre teknologi områder) end AI.
Og der hersker ingen tvivl om, at AI allerede har og også i fremtiden kommer til, at revolutionere spillereglerne for den måde, som virksomheder griber it-sikkerheden an på.
Den it-sikkerhedsansvarlige bør dog holde sig for øje, at AI kan være et tveægget sværd, når det kommer til at varetage virksomheders it-sikkerhedsforanstaltninger.
For hvor AI har potentiale til at løse problemer på sekundet, optimerer arbejdsgange og yde hurtig feedback til kunder eller brugere, så kan tilliden til AI som virksomhedernes vagthund faktisk også komme til at svække den generelle sikkerhed.
AI stiller praktisk talt uendeligt mange muligheder til rådighed for virksomhedernes it-sikkerhedsansvarlige, når det kommer til at optimere systemer med kunstig intelligens.
Og implementeringen går for manges vedkommende rasende stærkt i fornyelsens og besparelsens navn.
For nogles vedkommende går det måske endda lige stærkt nok.
For implementeringen af AI-værktøjer og automatisering kan for nogle komme til at erstatte den gode, gennemarbejdede plan og rettidige omhu.
Og har man først slækket på planlægning og sikkerhedsforanstaltninger, så kan man hurtigt komme til at stå overfor uforudsete udfordringer og løbe unødvendige risici der, i værste fald, kan få utilsigtede og alvorlige konsekvenser for virksomheden.
Men kan AI ikke også tilføre stor værdi?
Ret skal være ret. Der er en grund til, at så mange virksomheder i al hast implementerer AI-løsninger.
AI har evnen til at transformere it-sikkerheden og løfte den til helt nye højder.
Lige fra hurtig besvarelse af organisationens sikkerhedsspørgsmål, nedbrydning af siloerne i organisationerne, til generel forøgelse af effektivitet og produktivitet.
AI-understøttede sikkerhedsprogrammer kan eksempelvis identificere og kompensere for sikkerhedsbrister i systemer hurtigere, end det nogensinde har været menneskeligt muligt, så der er absolut stort potentiale og masser af værdi at hente.
Men træerne vokser som bekendt ikke ind i himlen, og AI kan (endnu ikke) gøre (hele)it-sikkerhedsfolkenes job for dem.
Gør automatisering med AI mere skade end gavn?
Anvendelse af AI-drevet automatisering kræver en stor og dedikeret menneskelig indsats for, at det kan fungere hensigtsmæssigt i tråd med en given virksomheds behov.
Og det er netop her, at hunden, for manges vedkommende, ligger begravet, for hvis man som it-sikkerhedsansvarlig ikke lægger det fornødne arbejde i sin AI-løsning, så kan den faktisk skade virksomheden.
Jeg har ved dårligt planlagte og gennemførte implementeringer af automatisering set flere eksempler på, at services bliver lukket ned eller forhindret unødigt, fordi automatiseringen har registreret en risiko, hvor der ikke er en forretningskontekst tilføjet før beslutning.
Det har haft konsekvenser såsom, at en produktion er blevet beskadiget, eller at folk slet og ret bliver forhindret i at gøre deres arbejde.
På papiret er det en optimering, men i praksis kræver brugen af automatisering, at man lægger både tid og grundigt arbejde i at gennemteste scenarier og afprøve gennemførelsen af undtagelser, så tingene kan glide, som forretningen ønsker.
Konsekvensen ved manglende kontekst til beslutningsprocessen bliver således ofte, at man kommer til at underkende, hvor vigtig den menneskelige indgriben faktisk er, for at processerne fungerer til den enkelte virksomhed.
Man skal derfor være yderst påpasselig med blot at antage, at automatiseringen gør arbejdet ordentligt.
Tværtimod er det nødvendigt, at automatiseringen og processerne bag bliver gennemtestet og tilpasset før fuldstændig implementering og sidenhen også bliver gennemgået, og afstemt løbende, så den altid passer til den pågældende virksomheds aktiviteter.
AI kan gøre it-sikkerhedsfolk dummere
En anden konsekvens, sat lidt på spidsen naturligvis, ved implementering af AI, er, at det på sigt kan have en fordummende effekt på SOC-rollerne, der er ansvarlige for at overvåge virksomhedens sikkerhed.
Når AI overtager dataindsamling og -behandling, forenkler den detaljegraden for at gøre det nemmere for analytikerne, og derfor øges risikoen for, at analytikerne er mindre trænede i at gennemskue processerne.
Og det skaber et problem, når der pludselig er noget, der afviger fra normalen. For så ved SOC-analytikerne måske ikke, hvor de skal indhente data, eller hvordan de skal fortolke dem, såfremt man ikke har den fornødne adgang til værktøjerne.
For at forebygge at det sker, er det vigtigt, at den it-sikkerhedsansvarlige prioriterer at få lavet planer for, hvordan analytikerne skal gribe eventuelle problemer an, før de opstår.
Og så er det vigtigt at klæde sine medarbejdere ordentligt på, ved hjælp af efteruddannelse inden for digital efterforskning og reaktion på uforudsete digitale hændelser.
Implementeringen af AI har stort potentiale for at fungere som løftestang for en virksomheds generelle sikkerhedsniveau.
Men i sidste ende afhænger processen af, at det personale, som implementerer løsningerne, har realistiske forventninger, en god plan og forstår at træffe kyndige beslutninger.
Derfor anbefales det generelt at få en betroet sikkerhedspartner til at støtte med både planlægning og implementering af de rette AI-understøttede sikkerhedsværktøjer.
Klummer er læsernes platform på Computerworld til at fortælle de bedste historier, og samtidig er det vores meget populære og meget læste forum for videndeling.
Har du en god historie, eller har du specialviden, som du synes trænger til at blive delt?
Læs vores klumme-guidelines og send os din tekst, så kontakter vi dig - måske bliver du en del af vores hurtigt voksende korps af klummeskribenter.