Denne klumme er et debatindlæg og er alene udtryk for forfatterens synspunkter.
Andreas Mogensen og de andre astronauter på rumstationen ISS arbejder på standard-servere ombord.
Computerkraften er stor, og den tillader, at andre kan bestille et projekt udført på dette datacenter, mens det er i kredsløb. Book en overjordisk workload her.
Helt så ekstremt behøver det ikke at være, når vi taler edge computing.
Både privat og professionelt ser vi masser af vidnesbyrd om eksplosionen i den decentrale dataproduktion, som er den primære årsag til, at vi skal flytte computerkraft ud på kanten af vores it-installationer.
IoT og gigantiske datamængder
Det er navnlig IoT og industri 4.0, der driver den eksplosive vækst i decentral dataproduktion.
Sensorer, kameraer, termometre og meget mere supplerer nu den proces-relaterede computerkraft, som vi har placeret ude i produktionen.
Sensorer, der kan høste energi fra eksempelvis lys eller bevægelse, og som derfor kan leve et liv uden at være forbundet til batteri eller anden ekstern strømkilde.
Samlet set: Gigantiske datamængder, som ikke med fordel kan flyttes til en ekstern cloud.
Vi skal bygge løsninger, som kan behandle data i realtid, hvor de bliver genereret. Selvfølgelig stadig med den nødvendige compliance og med blik for datas anvendelighed andre steder i værdikæden. Enten som ”data” eller som basis for fortsat udvikling af AI-modeller.
Når IT møder OT
I praksis åbner edge computing også for en række udfordringer.
It-afdelingen har i årevis kørt et paradigme med stikord som konsolidering, standardisering og stordrift, og derfor er der ikke nødvendigvis kompetencer og processorkraft ude på kanten længere.
Ude i produktionen kører en række processer i lukkede netværk (OT = operational technology) med processtyring, produktionsmaskiner og robotter. Den er fagspecifik og produktspecifik og har ikke traditionelt været en del af it-funktionen.
Edge computing piller med andre ord ved de etablerede grænser mellem en produktionsnær ingeniør-drevet faglighed og den mere generelle it-faglighed omkring de bærende applikationer i den samlede virksomhed.
Data til AI-innovation
Dataeksplosionen er jo netop meget interessant i forhold til AI.
Der ligger givetvis et stort potentiale for innovation, hvis vi kan give AI-modeller adgang til de nye og stadig rigere datastrømme, som opstår lokalt.
Puslespillet omkring workloads handler altså om, hvor meget og hvordan man kan flytte workloads ud lokalt og tæt på data. Og gøre det på en måde så man stadig høster innovationspotentialet, når AI tillader os at stille spørgsmål, som vi ikke kunne drømme om at stille tidligere.
Det efterlader virksomhedens it-ansvarlige med løbende behov for en 360 graders vurdering af, hvor en workload ligger mest optimalt. Datas forretningsværdi, risikoprofil, følsomhed, relevans og potentiale er måske det allermest vigtige at have styr på til den vurdering.
Edge computing lægger mange nye brikker til dét puslespil.
Men lad os starte med at udelukke tanken om at køre edge-data en tur rundt om jorden. De skal bruges hurtigst muligt og sikkert også lige der, hvor de bliver født.
Klummer er læsernes platform på Computerworld til at fortælle de bedste historier, og samtidig er det vores meget populære og meget læste forum for videndeling.
Har du en god historie, eller har du specialviden, som du synes trænger til at blive delt?
Læs vores klumme-guidelines og send os din tekst, så kontakter vi dig - måske bliver du en del af vores hurtigt voksende korps af klummeskribenter.