Denne klumme er et debatindlæg og er alene udtryk for forfatterens synspunkter.
For ikke så længe siden udkom Gartner Group med en række forudsigelser om AI.
Analytikerne forudså, at i 2023 vil 40 procent af forretningsorienterede applikationer have indbygget “konverserende AI”. Mod fem procent i dag.
I 2024 vil 10 procent af verdens digitale køb være forudsagt eller initieret af AI.
I 2025 vil 70 procent af virksomhederne have operationaliserede AI-arkitekturer, fordi teknologien modnes meget hurtigt.
Den danske case
Man skal altid være skeptisk på forudsigelser. Hvad er forudsætningerne? Hvem står bag? Hvad er datagrundlaget?
Men personligt synes jeg, at Gartner peger i den rigtige retning. Og for nylig fik vi også en kundecase, som vi skal til at arbejde på, og den understregede potentialet i – skal vi kalde det – ”indpakket AI”.
Det handler om en organisation, som modtager emails i tusindvis med mange forskellige forespørgsler fra kunderne.
Selvfølgelig relateret til de forskellige services; deres brug og diverse detaljer. Opgaven med at svare på alle disse emails er enorm.
Hvad nu hvis et stykke software kunne læse disse emails, bevare de fleste selv og sende resten videre til en medarbejder?
At bygge en sådan text mining op fra bunden med NLP (Natural Language Processing) er en kæmpestor opgave. Og sådan ville vi jo normalt gå til opgaven.
Attraktiv indpakket AI
Men fordi problemet med at håndtere tekst (og sådan set også tale) er et generisk problem, så er der specialiserede softwareleverandører, der har udviklet løsninger.
De byder ind med en pakket AI-løsning, som giver kunden en front-end, og så kan softwaren ellers trænes og bringes i anvendelse.
Pludselig kommer man altså i gang uden at have et hold af propelhatte (you know, samme slags som Georg Gearløs løb rundt med i Andeby) siddende i organisationen.
At opdrive og skabe et attraktivt miljø for tunge AI-eksperter og data scientists er uden for rækkevidde for de fleste almindelige virksomheder.
Derfor er den indpakkede AI så attraktiv! Og nu var eksemplet på tekst, men det findes jo også specialiserede tilsvarende løsninger til andre former for konversation.
Eller for den sags skyld til at løse andre fokuserede funktionelle problemstillinger.
Pas på med black box!
Men ansvaret for, hvordan man bruger sine data, kan ikke outsources helt og aldeles.
Gartner forudser eksempelvis, at 70 procent af kommercielle AI-produkter, der ikke er transparente om etisk forsvarlige processer, vil blive stoppet af myndigheder og aktivister allerede i 2023.
Lige sådan vil en virksomhed skaffe sig et enormt omdømmeproblem, hvis den bruger kunstig intelligens uden at kunne forklare, hvordan den fungerer.
I effektivitetens hellige navn må den pakkede AI altså ikke blive en black box for dig som bruger. Også her er er der brug for ”varedeklaration”. Medmindre du har appetit på at løbe en enorm risiko for at skræmme dine kunder væk.
Farvel til propelhattene?
Apropos propelhatte, så forudser Gartner også, at allerede I 2025 vil halvdelen de aktiviteter, som vi i dag bruger data scientists til, blive automatiseret af AI. Og dermed vil vores akutte mangel på denne kompetence måske blive mildnet en smule.
Nu er det at læse ustruktureret tekst med slang, stavefejl og emojis ikke det eneste tværgående problem, som mange virksomheder slås med.
Eksemplerne er mange, og du kan sikkert selv finde på flere. Ligesom den futuristiske ide om robotter er blevet operationaliseret af RPA-software, så kan indpakket AI trække kunstig intelligens ned i øjenhøjde.
Kom i gang med at få værdi ud af AI. Der er masser af software klar. Men som al anden forandring handler det også om mennesker, processer og ledelse!
Klummer er læsernes platform på Computerworld til at fortælle de bedste historier, og samtidig er det vores meget populære og meget læste forum for videndeling.
Har du en god historie, eller har du specialviden, som du synes trænger til at blive delt?
Læs vores klumme-guidelines og send os din tekst, så kontakter vi dig - måske bliver du en del af vores hurtigt voksende korps af klummeskribenter.