Tusindvis af virksomheder arbejder intensivt på at lade AI og Machine Learning automatisere virksomhedsprocesser i et eller andet omfang. Men samtidig er mange – og med god grund – bekymrede for, hvor deres data havner. Ligeledes kan det være svært at stole ubetinget på de resultater og vurderinger, løsningerne når frem til.
”Et af de basale forhold omkring AI er, at man jo netop er nødt til at anvende store datamængder til at træne algoritmerne og levere bedre outputs. Derfor er der ved AI-løsninger bygget oven på offentligt tilgængelige platforme risiko for, at data og forespørgsler ”lækker.” For eksempel ved at informationerne anvendes som del af de svar, løsningerne leverer til andre brugere udenfor din organisation,” forklarer AI-ekspert Patrick Couch, HP Enterprise (HPE).
”Samtidig kan det være svært eller decideret umuligt at gennemskue beslutningsgrundlag og validere output i mange af de AI-løsninger, der kører i public cloud,” tilføjer han.
Værktøjer letter forsvarlig anvendelse af AI
Det er en del af baggrunden for, at HPE har sammensat en suite af tjenester, som gør det nemmere at arbejde forsvarligt med AI. Herunder ved at udvikle, implementere, idriftsætte og validere egne AI-løsninger – hvad enten det så foregår on-premise, i public cloud eller i en hybrid infrastruktur.
For i alle tilfælde vil man som kunde i højere grad blive i stand til at bevare kontrollen over egne data samt indsigt i beslutningsmodellerne.
”Du vil f.eks. vide præcis, hvilken algoritme, der anvendes og kan – hvis du ønsker det – analysere matematisk på resultaterne. For eksempel med henblik på at tage eventuel afdrift af algoritmen i opløbet og sikre, at output ikke vægtes uhensigtsmæssigt,” forklarer Patrick Couch.
Der er en række elementer i HPE’s AI-portefølje, men der er navnlig tre centrale produkter, HPE stiller til rådighed i bestræbelserne på at arbejde forsvarligt med og analysere på AI:
- HPE Machine Learning Development Environment, der gør det nemmere og hurtigere at udvikle, træne og implementere ML- og AI-modeller i storskala. Platformen indeholder bl.a. funktioner som træning af Deep Learning-modeller, finjustering af hyperparametre og clusterstyring.
- HPE Machine Learning Data Management, som er open-source platform designet til at håndtere data engineering og AI/ML. Den tilbyder bl.a. versionskontrol for data samt reproducérbare data pipelines, hvilket er afgørende for teams, der ønsker at bygge præcise og pålidelige AI-modeller. Softwaren gør det også lettere at spore og forvalte data, der anvendes i AI/ML-sammenhæng.
- TruEra er et softwareværktøj, der giver muligheder for analyse af AI-modeller med henblik på at kunne anskueliggøre og forklare, hvad der præcis foregår i modellerne. TruEra hjælper bl.a. med at sikre, at AI-modellem er retfærdig, gennemsigtig og i overensstemmelse med etiske standarder.
AI Act: Lev op til kravene – eller betal ved kasse ét
En forsvarlig tilgang til arbejdet med AI bliver kun endnu mere afgørende, når EU’s kommende AI Act implementeres. Direktivet stiller ikke kun krav til organisationer og virksomheder om, at de anvender AI til formål, der etisk ligger indenfor skiven. Men også at de kan validere og dokumentere, at modellerne faktisk fungerer efter hensigten og f.eks. ikke diskriminerer mod bestemte befolkningsgrupper. Der er bl.a. her, at et værktøj som TruEra kommer ind i billedet, bemærker Patrick Couch.
Han erkender, at AI Act måske nok vil blive opfattet som en ekstra byrde af en del organisationer, fordi regulativet stiller krav til, hvordan de anvender AI.
”Men i sidste ende er AI Act i min optik af det gode. Blandt andet fordi det er med til at formalisere nogle retningslinjer, som det først og fremmest er i virksomhedernes klare egeninteresse at leve op til. Også selv om myndighederne ikke krævede det af dem under trusler om endog ganske klækkelige bøder,” tilføjer Patrick Couch.