Denne klumme er et debatindlæg og er alene udtryk for forfatterens synspunkter.
Det er altid godt at begynde med en undskyldning: Jeg nævnte i sidste uge "DSB's signalprogram", hvilket er noget vrøvl, da det er Banedanmarks. Det burde jeg have checket, og jeg sender en varm tak til de læsere, der venligst skrev til mig om det.
Jeg bliver nok nødt til på et tidspunkt at kigge lidt på det, nu da alle problemer med it-projekter i det offentlige er løst (hvilket jeg - som altid helt korrekt - også skrev om i sidste uge).
Signalprogrammet (mellem venner blot SP) blev søsat i 2014 og skulle være færdigt i 2020, måske 2021. Der er nu lagt budgetter frem til 2025, 2030 og muligvis 2035.
Kunne vist godt bruge et par gode råd
Fra seks år til (måske) 21 år er alligevel ret godt gået.
De kunne vist bruge et par gode råd fra den samme politiker, der øste ud af sin startup-erfaring overfor skatteministeren - en ekstra milliard og et låg på 300 millioner per projekt, bedre styring (!) og lovgivning, der er lige til at digitalisere. Bum.
Nok om det. Det bliver en anden gang, at jeg skriver om programmet, der kørte af sporet, sendte alle de forkerte signaler og ikke blev et skinne'nde eksempel til efterfølgelse.
MEN: Jeg må indrømme, at jeg er fascineret. Hvis nogen har nogle gode forklaringer på, hvorfor SP går som det går, så hører jeg gerne om det på mogensxy@gmail.com.
Som altid må der være noget logik bag et forløb, hvor en masse kloge mennesker kører over (!) tid, budget og scope i sådan en grad.
Realiteterne er nok ved at gå op for de fleste
Som sagt: Nok om dét. Vi skal lige tale lidt mere om AI.
Mens realiteterne er ved at gå op for de fleste (ChatGPT laver ordsalat baseret på, hvad andre har sagt og skrevet, ligesom mennesker, og det kan den gøre hurtigt og i store mængder), så når pAInikken (!) nye højder hos politikere og mediefolk, der 1) ikke selv bruger AI, og 2) føler sig bedst tilpas ved at opskræmme befolkningen, så de kan tilbyde dem hjælp.
Politikere og medier kan i den slags situationer minde om to hooligans, der står fredeligt ved siden af hinanden.
Så udstøder den ene pludseligt, og uden grund, et højt brøl.
Den anden står lidt og tænker over det, men føler sig nødsaget til også at brøle.
Sådan står de nu og brøler mere og mere hidsigt ud i luften, vidunderligt selvforstærkende og meningsløst, uden at nogen kan forklare, hvordan og hvorfor det hele startede.
Så kan man blive chefbrøler
Den Oprindeligt Brølende hooligan får ros af sin brølechef for at have sat noget stort i gang og skabt en masse opmærksomhed, han bliver med tiden forfremmet til chefbrøler, og sådan går verden brølende videre.
Måske får han endda prisen Årets Brøler for sin indsats.
Med tiden stiger de bedste brølere til vejrs i organisationen, indtil der til sidst næsten ikke er til at få ørenlyd selv på en hjemmearbejdsdag.
Brøle-konkurrencen om AI's evne til at fjerne brancher og udslette menneskeheden kører stadig for fulde gardiner i medie-/politiker-hurlumhejet.
I mellemtiden er det tid til et reality-check:
England vil højst sandsynligt ikke kunne lave en GAI (Generative AI), der svarer til ChatGPT. Tænk lige over dén.
Det kræver teknologi, viden og penge på et niveau, hvor England formentlig ikke kan være med, selvom de er hjemsted for DeepMind og andre geniale bikse.
Den våde drøm
Hvis England ikke engang har kræfter til en GAI, får de da aldrig mulighed for at lave en AGI (Artificial General Intelligence), som er den våde drøm.
Det er da også et åbent spørgsmål, om EU kan nosse sig sammen til at samarbejde om den slags ting.
Tag for eksempel datacentrene, som vi kender dem fra utallige steder på Fyn og i Jylland.
De er nu historie og kan måske snart genbruges som kaserner til vor soldater.
Masser af planlagte datacenter-byggerier (inklusive Facebooks udvidelse i Odense) er aflyst.
De gammeldags datacentre kan nemlig ikke køle AI-teknologierne ned med gammeldags luftkøling, og de består af de forkerte dele.
Et datacenter, der skal kunne lave AI, kræver vandkøling ("liquid cooling") helt hen på backplanet af de enkelte racks, og skal håndtere GPU'er i stedet for CPU'er.
At skaffe GPU'er nok (og de er VIRKELIGT dyre - tænk 10.000 kroner stykket), få sat dem sammen rigtigt og få dem anbragt i et datacenter, der har køling og strøm nok, vil være så krævende, at ikke engang England kan håndtere det, selvom deres premierminister taler nok så meget om BritGPT.
Det gør i øvrigt hele fjolleriet med "Datacentre skal sætte Danmark på Verdenskortet"-feberen endnu mere åndssvag. Jeg skrev om det for 486 dage siden:
Og i én af de bedste podcast-episoder, som I kommer til at lytte til i lang tid, interviewer Anders Kjærulf en pH.d, der har kigget på praktikaliteterne i at bruge spildvarmen fra Facebooks datacenter i Odense:
Den kan du høre her: AFLYTTET - i garagen: Facebook og den varme luft, Commodore 64 og cyberskydebanen on Apple Podcasts
Sølle 27 grader
Det begynder med, at spildvarmen kun er sølle 27 grader, hvilket ikke lige er nok til, at vi gider bruge det til varme bade og skoldende vand fra hanen, så det skal gennem et hav af teknik og energikrævende hurlumhej før det kan bruges - ja, det skal vel bare opvarmes?
Mens man fra Odenses side er meget travlt beskæftiget i den anledning med at konstruere og grave op og ned (hvilket man jo i øvrigt gør alle steder hele tiden alligevel, uden at det står helt klart for mig hvorfor), så beslutter Facebook sig for alligevel ikke at udvide i Odense, fordi de faktisk ikke kan bruge datacentret til ret meget mere.
Brute force
GPU'erne blev lavet til gaming-formål, men viste sig ved et uheld at kunne bruges til at sætte skub i neurale netværk (det havde man ventet på siden 80'erne), så man brutalt ("brute force") endelig kunne indexere en masse skriftligt materiale, så man kunne lave en brugbar chatbot, der kunne forveksles med en høflig, arbejdsom DJØF'er.
GPU'erne muliggjorde tilfældigvis AI. Det betyder imidlertid IKKE, at GPU'er er supersmarte at bruge til AI.
Facebook skal jo lave Metaverse, ja de skal så, og det kræver Metaverse-chips (AMD EPYC), der skal vandkøles, og dét bliver nok et andet sted end i Odense.
Google bruger deres egne Tensor Processing Units (TPU's), der også kræver væskekøling, til deres AI-hejs.
GPU'er er derudover åndssvagt dyre at anvende til formål, som de ikke er beregnede (!) til.
En Generativ AI (GAI) er tre-fire gange dyrere, mindst, end Google Classic til at svare på simple spørgsmål.
Dårlig forretning. Så GPU'erne, EPYC'erne og TSU'erne er gode til at køre indexeringen og opbygningen af AI-modellerne, men de skal helst ikke bruges til det efterfølgende sniksnak med mennesker og maskiner.
Et helt tilfældigt tænkt eksempel
Lad os tage et tænkt eksempel: Lad os sige, at der er 20.000 siders dokumentation for, hvilke regler man skal overholde i et restaurations-køkken.
Det ville være smart at have en AI-model, der var trænet på dette, kunne overskue det, summere det, svare på spørgsmål, finde selvmodsigelser og gentagelser, hjælpe med at svare myndighederne, osv, osv, osv.
Men det kræver, at man
1) sørger for, at dokumentationen er i en stand, hvor den kan læses "ensartet."
2) at man har maskinsaft og -kraft til at tygge sig igennem det og lave Det Store Index af ord-bidder.
3) har styr på at træne modellen, eventuelt mod sig selv, så den kan "lære", hvad den lige har indexeret.
4) har mennesker til rådighed, der derefter kan "opdrage" modellen, så den ikke foreslår, at man laver De Grønne Slagtere 2.0 i køkkenet eller bare vender skærebrættet om, alt efter, om man skal skære kød eller grøntsager.
Virkeligt krævende del
Fase 4 er virkeligt krævende og forklarer historierne om tusindvis af afrikanere, der sidder manuelt og retter ting i ChatGPT hele tiden.
Man kan også tydeligt mærke, at den ændrer opførsel over tid af samme grund.
Det kan næsten sammenlignes med, at man læser og hører om Archimedes' lov, dernæst afprøver den i kontrollerede forsøg for at se, hvordan den virker, og til sidst stilles overfor erfarne folk, der fortæller, at den kan bruges til en masse ting, der vedrører dykning, men nok ikke skal være grundstenen i en beregningscomputer til krumbanevåben.
GPT4 har muligvis kostet en milliard dollar og måske koster den cirka det samme om året i drift. Og det er kun én model, den er statisk og ikke-lærende, og den er ikke up-to-date. Jeg kan godt forstå, at de ikke regner med at lave GPT5.
Dét, mine venner, er brute force. Og fedt nok, for så fik vi da syn for sagen, og vi blev MEGET klogere MEGET hurtigere på AI. Men det ER bare en statisk og statistisk model. Den lærer ikke engang af det, som vi fodrer den med eller det, som vi beder den om.
Så der skal andre, og smartere, metoder, teknologier og tankegange til, hvis vi skal have rigtig AI.
En GPT5 vil bare være mere af det samme, og det er stadig kun GAI'l (!), ikke AGI'lt (!!), som er dét alle drømmer og har mareridt om.
Som sagt: Hvis ikke engang et stort land som England kan lave en BritGPT, så må der søges nye veje.
Mini-AI'er
Jeg tror på, at vi får mini-AI'er, mikro-AI'er og nano-AI'er (mine udtryk, som jeg bare har fundet på), der er specialiserede.
Det viser sig for eksempel, at en stor model ret hurtigt kan træne en lille model på et specialiseret område.
Det viser sig, at man kan lave short-cuts og spare rigtigt meget i beregningstid og -kraft ved at afrunde til nogle få decimaler i stedet for mange.
Nano-AI'er, der kan klare sig med regnekraften på en mobil, er lige om hjørnet (nogle vil hævde, at de allerede er her - Googles Pixel-mobiler har en TSU ombord), og mikro-AI'er, der kan klare sig med en kraftig hjemme-pc, er noget, der kommer om ikke så længe.
Tilsammen skal det nok resultere i hurtige og store fremskridt, så mange flere kan bygge gode modeller.
Vi må ikke glemme panik-delen
Så er der hele panik-panik-aspektet, som får alle store bikse til at drøne brølende rundt i cirkler og forlange, at der kommer AI i alt.
Det giver pressen mulighed for at rapportere, at nu har [Ekstremt Stor Biks] bedt alle deres it-folk om at gøre AI til en del af alle deres igangværende og fremtidige projekter [fordi].
Dét har medført, og igen må jeg konstatere, at verden er forunderlig, at der nu er KÆMPE mangel på AI-eksperter.
Men frygt ej! Alle it-folk er i gang med den dér glidende, snigende overgang, som vi har set så ofte før, og lige om lidt vil alle have "AI" i deres CV og på LinkedIn.
Ligesom dengang alle udviklere blev DevOps og senere DevSecOps.
Læg mærke til, hvordan den snigende overgang til AI-kyndig foregår via machine learning.
Det viser sig, at al kode, der er lavet i de sidste 10 år, pudsigt nok pludseligt - som minimum - har machine learning indbygget, i hvert fald på lanceringsdatoen.
Hvis verden vil have ekstremt billig kvalitetsrødvin, så leverer mafiaen da bare fake Barolo til 99 kroner i Netto.
Alle bliver AI-eksperter over night
Der vil tilsvarende vise sig at være rigeligt med AI-eksperter i verden, for hvis alle projekter skal have AI, så bliver alle folk på projektet faktisk AI-eksperter overnight. Markedet virker som altid og møder lynhurtigt efterspørgslen.
Det sætter gang i det kendte loop således, at alle projekter i fremtiden nødvendigvis MÅ indeholde noget AI, fordi alle på projektet er AI-eksperter og forventer at arbejde med noget cutting-edge.
Og igen-igen vil vi se, at selv det simpleste IF-THEN-ELSE udråbes til at være AI-funktionalitet i praksis, hvor den ellers bare var machine learning for et år siden.
Vi er stadig på vej op ad hype- og hysteri-kurverne og de 80 procent af de voksne, der også kan være bange, viser sig pudsigt nok at svare til de 80 procent, der aldrig selv har prøvet ChatGPT.
Der vil blive brølt i et stykke tid endnu.
Hvis du, som jeg, har været på en rejse, der egentlig ikke krævede den helt store videreuddannelse, for eksempel fra databaseadministrator over data scientist til AI-arkitekt, så fortæl gerne om det via mogensxy@gmail.com. Og ja, hvis du kan forklare logikken - for den ER der - bag Banedanmarks Signalprogram og de ret imponerende forsinkelser, må du også gerne skrive løs .
Klummer er læsernes platform på Computerworld til at fortælle de bedste historier, og samtidig er det vores meget populære og meget læste forum for videndeling.
Har du en god historie, eller har du specialviden, som du synes trænger til at blive delt?
Læs vores klumme-guidelines og send os din tekst, så kontakter vi dig - måske bliver du en del af vores hurtigt voksende korps af klummeskribenter.