Denne klumme er et debatindlæg og er alene udtryk for forfatterens synspunkter.
Fænomenet sort sol er fantastisk. Tusindvis af stære fungerer som én ”krop”. De bevæger sig synkront, fordi hver enkelt fugl reagerer på de nærmeste.
Ideen om at styre denne organisme fra et centralt punkt og dirigere hver node i symfonien forekommer helt urealistisk.
Hellere end at løbe solen sort skal vi udstyre hver node med en vis kapacitet, og så kan flokken skabe resultater, der langt overgår evnen hos det enkelte medlem.
Nogle af disse principper, som vi kender fra naturen, kan også bidrage til intelligent digitalisering.
Centraliseringens svagheder
AI-modeller kræver typisk store datasæt for at give analytisk tyngde og undgå bias. Men samlingen af data på en central lokation kommer med en pris i forhold til privatliv, datasikkerhed, forsinkelse og ejerskab.
Alternativt findes der distribuerede modeller, hvor man indsætter en central dirigent, der samler resultater fra lokale aktører.
Dette kan give udfordringer med robusthed, skalering og ejerskab.
Fremfor alt er ingen af disse modeller attraktive, hvis man ønsker at køre analytiske modeller på tværs af virksomheder.
Den slags samarbejde er udbredt inden for pharma, og man kan sagtens forestille sig tværgående analyser blandt banker for at bekæmpe svindel. Svært opnåeligt, hvis man skal dele data, eller en enkelt aktør ’ejer’ den centrale node.
Swarm learning
Svaret på udfordringerne kan ligge i sværmens intelligens – swarm learning. Det er en decentral, GDPR-egnet og kollaborativ tilgang til machine learning.
Ideen er at have et stort netværk af jævnbyrdige og ensartede noder, der samarbejder om at træne datamodellen. De kommunikerer model parametre med hinanden og ikke rådata. Det foregår sikkert via blockchain i en peer-to-peer-tilgang.
En sådan arkitektur tilbyder en række fordele:
- Evner at håndtere store datamængder og rummer derfor lille risiko for bias og forkerte konklusioner.
- Operationel effektivitet fordi behovet for at flytte og duplikere data er elimineret.
- Stor skalerbarhed og robusthed med elimineringen af single-point-of-failure.
Dataeksplosion
Vi er lige nu i en tid, hvor datamængderne eksploderer. Lokale data fra sensorer, måleinstrumenter, kameraer og indbyggede følere i alt fra skraldespande til lagerbygninger vokser eksponentielt.
Vi har brug for at arbejde med data, hvor de er, men vi vil gerne gøre det med den statistiske soliditet fra meget større datasæt. Dette er rationalet bag swarm learning.
Et godt eksempel er hospitalssektoren.
Hvis regionen eller hospitalet kun har sine egne data bag en datamodel, risikerer man systematisk forkerte resultater, fordi befolkningsunderlaget har bias mod bestemte problemstillinger.
Hvis modellen derimod trækker på sværmens meget større datasæt, så får man bedre evne til at stille diagnosen, forstå røntgenbilledet og så videre.
Lige præcis sundhedsområdet er også et område, hvor dataeksplosionen er helt tydelig: Voksende mængder af kliniske data om hver enkelt borger og tilkomsten af wearables, der måler hjerterytmer, søvn og puls mv.
I øvrigt netop den slags personfølsomme data, som man helst ikke vil flytte og kopiere, fordi det rummer risiko.
Dataeksplosionen og de mange nye data ude på kanten af it-installationen er en megatrend. Jeg tror, at den vil trække AI og ML med ud i edge-delen.
Det bedste bud - lige nu - på den udvikling er swarm learning.
Klummer er læsernes platform på Computerworld til at fortælle de bedste historier, og samtidig er det vores meget populære og meget læste forum for videndeling.
Har du en god historie, eller har du specialviden, som du synes trænger til at blive delt?
Læs vores klumme-guidelines og send os din tekst, så kontakter vi dig - måske bliver du en del af vores hurtigt voksende korps af klummeskribenter.