Artikel top billede

(Foto: Dan Jensen)

Tag sikkerhedsbrillerne på og sæt brugerens data i centrum

Klumme: Fremtidens databeskyttelse kræver, at virksomheder prioriterer det digitale privatliv lige så højt som AI.

Denne klumme er et debatindlæg og er alene udtryk for forfatterens synspunkter.

Er du dus med begreber som anonymisering, fødereret læring og homomorf kryptering?

Hvis ikke, er det på høje tid – især hvis du ser AI som en central del af virksomhedens forretningsstrategi.

For fremtidens databeskyttelse kræver en privacy-first organisation, der prioriterer beskyttelse af private data på linje med udnyttelsen af kunstig intelligens.

Den digitale transformation buldrer fortsat afsted i et tempo, der gør, at virksomheder konstant må lægge sig i selen for at holde sig forrest i teknologibussen.

Hvert sekund genereres der cirka 1,7 megabyte data per person på kloden. Et tal, der kun kommer til at stige. AI og edge computing bliver derfor helt centrale i forhold til at udnytte data i stor skala og levere de intelligente, personligt tilpassede tjenester, som forbrugerne efterspørger.

Parallelt med den øgede efterspørgsel eskalerer antallet af databrud og cybersikkerhedstrusler, og det sætter brugernes digitale privatliv under pres. Alene i første kvartal af 2024 blev der registeret 4.000 brud på persondatasikkerheden i Danmark.

Vi må med andre ord gentænke vores persondatabeskyttelse.

For selvom AI på den ene side har potentialet til at øge cybersikkerheden ved at kunne opspore uregelmæssigheder eller trusler, kan generativ AI på den anden side øge risikoen for misbrug eller lækage af følsomme data.

Det skyldes, at generative AI-systemer ofte har ingen eller ringe mulighed for at "slette" oplysninger, hvilket giver problemer i forhold til retten til at blive ”glemt” som forbruger.

Opbyg en privacy-first organisation

Derfor handler det om at opbygge en organisation, der sætter privatlivets fred i førersædet lige ved siden af investeringerne i AI.

Ledelsen må med andre ord se virksomheden igennem en ny sikkerhedslinse og skabe en privacy-first-tilgang, der sikrer - parallelt med EU's GDPR-forordnings krav til beskyttelse af forbrugerdata - at anvendelsen af AI indeholder kraftige sikkerhedsfunktioner.

Samtidig bør virksomhedens interne procedurer og retningslinjer håndhæve en streng datahygiejne omkring personfølsomme data, der passer godt på brugernes digitale privatliv, når de anvender AI.

Det kræver omfattende data governance-politikker, der rækker udover både GDPR og lokal databeskyttelseslovgivning.

Virksomheders databeskyttelsespolitik bør være så gennemsigtige, at enkeltpersoner har mulighed for at træffe velinformerede beslutninger om indsamling, brug og opbevaring af private data.

Samtidig skal forbrugeren til enhver tid let have adgang til at anmode om sletning af alle vedkommendes private data, organisationen ligger inde med.

Datasikkerhed er ikke en ø

At opbygge en organisation, hvor datas ret til privatliv står øverst på dagsordenen og integreres i alle dele af forretningen, kræver en indsats fra både virksomhed og medarbejdere – i tæt samarbejde med både leverandører, eksterne sikkerhedseksperter og tilsynsmyndigheder.

Grundlæggende skal virksomheden opbygge en kultur, hvor medarbejderne har indgående forståelse for vigtigheden af datasikkerhed samt brug og opbevaring personfølsomme data.

Fra basale it-sikkerhedstiltag som stærke adgangskoder og afkodning af phishing-angreb til planlægning af hændelsesrespons, der samlet set gør organisationen handlingsparat ved hændelser.

Da cyberkriminelle altid er på udkig efter det svage led i kæden, hvad enten sikkerhedsbristen ligger indenfor eller udenfor virksomheden, udgør tredjepartsorganisationer en central del af det samlede beredskab.

Det betyder, at for eksempel leverandører skal overholde de samme høje standarder for databeskyttelse. Enhver virksomhed bør derfor stille sine leverandører spørgsmålet: Har I styr på datasikkerheden?

En mere sikker fremtid

Endelig handler en privacy-first organisation om at holde sig opdateret på og omfavne nye teknologier, der balancerer dataanalyse og individuel fortrolighed.

Det kunne være federated learning, hvor machine learning-modeller trænes uden at dele data, eller homomorf kryptering, hvor data kan behandles uden at blive dekrypteret eller anonymisering af forbrugerdata.

Der er ingen tvivl om, at AI har flyttet grænserne for vores digitale privatliv.

Men hvis virksomheder bruger kunstig intelligens med omtanke og ser privatlivets fred som en integreret del af AI-strategien kan de blive fremtidens vindere, hvor kundernes tillid bidrager til forretningens bundlinje.

Klummer er læsernes platform på Computerworld til at fortælle de bedste historier, og samtidig er det vores meget populære og meget læste forum for videndeling.

Har du en god historie, eller har du specialviden, som du synes trænger til at blive delt?

Læs vores klumme-guidelines og send os din tekst, så kontakter vi dig - måske bliver du en del af vores hurtigt voksende korps af klummeskribenter.