Af Palle Vibe, Alt om Data
Denne artikel er oprindeligt bragt på Alt om Data. Computerworld overtog i november 2022 Alt om Data. Du kan læse mere om overtagelsen her.
Der er ingen grænser for, hvad kunstig intelligens kan udrette. Mange eksperter mener, at det kun er et spørgsmål om tid, før kunstig intelligens også bliver ægte intelligent og måske ligefrem selvbevidst. Men er det nu også rigtigt?
Det er godt nok sandt, at AI – Artificial Intelligence – i dag er smart, men det har måske alligevel ikke så mange bits at flytte rundt med, som de fleste tror. Det mener i hvert fald Miguel Sicart, der er forsker ved IT-Universitetet.
Han står bag forskningsprojektet Ridiculous software og har sammen med sit team udviklet en app, der bruger samme type maskinlæring og genstandsgenkendelse, som kan holde Teslas biler inden for de hvide striber på vejen.
Se og høre – tale og forstå
Appen hedder Probably Not og er baseret på analyse af kamerainputs og en form for ”bagvendt” konklusion. Har du for eksempel taget et billede af din computermus, kan appen med sikkerhed sige, at der ikke er tale om en musefælde.
Programmet kan endog vægte sine konklusioner i procent og slå fast, at fotoet enten sandsynligvis (50 procent) eller højst sandsynligt (97 procent) ikke forestiller en musefælde – programmet kan hentes via Apples App Store. Projektet er dog kun et eksperiment for at sætte hele AI-debatten lidt i perspektiv.
Men ellers kan AI en hel del af lidt af hvert. AI kan spille alle slags brætspil og kortspil og game bedre end menneskelige spillere. Ved hjælp af kameraer og andre optiske sensorer, kan AI ”se” og analysere visuelle data og både genkende ansigter og holde selvkørende biler på vejen.
I industrien kan ”seende” AI-robotter genkende og sortere objekter. AI kan mere præcist end selv erfarne og rutinerede speciallæger påvise sygdomstegn ud fra scanninger og røntgenbilleder.
AI-computere kan læse en bog, en artikel eller hvilken som helst tekst og sammenfatte det vigtigste i et kort og præcist referat. Det kan også ske ud fra foredrag, debatter og radio- og tv-udsendelser.
Netværk med én nervecelle slår hjernen
De største nuværende AI-systemer er generelt baseret på flere lag af neurale netværk med myriader af forbindelser trængt sammen på mindst mulig plads. Og de bruger energi i megawatt-klassen. Et eksempel er AI-programmet GPT-3, som bruger lige så meget strøm som 126 danske boliger på et år.
Forskere fra Arbeitsgruppe Angewandte Dynamische Systeme på Technische Universität Berlin er gået en anden vej og har bygget et neuralt netværk – en kunstig hjerne – baseret på blot en enkelt ”nervecelle”, også kaldet neuron, der netværker med sig selv og derved bruger tid i stedet for plads. D
enne enkelte forbindelse kan tunes på millioner af måder hen ad vejen og derved producere lige så mange resultater med et minimalt strømforbrug. Det tager lidt længere tid, men da digitale signaler kan bevæge sig med lysets hastighed, går det ret hurtigt alligevel.
Med yderligere forfinelse anser forskerne det for givet, at dette simple netværk vil etablere et uendeligt antal forbindelser og derved vil overgå menneskehjernen.
AI kan også høre og forstå tale og lyde mere effektivt og nøjagtigt end selv det skarpeste øre og eksempelvis identificere et våben ud fra lyden af skuddet eller tydeliggøre og fortolke stemmer samt foretage mundaflæsning.
Samme færdigheder sætter robotter eller elektroniske assistenter som Siri og Alexa i stand til at forstå og efterkomme anmodninger og beskeder og kommunikere og meddele sig fornuftigt og overbevisende.
Det er heller ingen sag for AI at udarbejde pålidelige meteorologiske forudsigelser, ligesom snedige algoritmer kan forudsige mulig kriminalitet på angivne steder og tidspunkter ved at overvåge sociale medier. På samme sæt kan AI afsløre fake news og digital kriminalitet af enhver slags eller optræde som juridisk dommer, bisidder eller advokat.
Skrive og debattere
Allerede i dag bruger mange aviser og redaktioner AI-computere til at udfærdige rutinestof, pr og nyheder på grundlag af både talte og skrevne inputs. AI kan demonstrere kreative evner og forfatte manuskripter til film- og tv-reklamer, serier og spillefilm foruden skønlitteratur.
AI-programmer kan tilmed analysere og tyde ansigtsudtryk, kropssprog og tonefald og på det grundlag udlede, hvor interesseret en person reagerer på videoer og billeder mv., hvilket reklamefolk har god gavn af.
AI-computere kan derudover male, tegne og fotografere – og det med en kvalitet, der kan afstedkomme høje priser på auktioner og udstillinger. Eller algoritmer kan komponere og musicere til stort bifald i koncertsale og på indspilninger. Selv eksperter kan ikke altid skelne et AI-værk fra et menneskeskabt.
Ud fra store databaser med informationer og beskrivelser om alskens emner og temaer kan AI diskutere og debattere dygtigt og skarpt og også argumentere for en sag fra flere sider.
Samme teknologi giver grundlag for en efterhånden overraskende god og meningsfyldt maskinoversættelse, hvilket forudsætter både indsigt og viden samt næsten abstrakte evner og tankegang.
Svag intelligens eller stærk intelligens?
Kunstig intelligens kan overordnet opdeles i svag og stærk AI. Svag AI er blot i stand til at opvise få intelligente mønstre. Stærk AI har intelligens, der på flere områder kan sammenlignes med menneskehjernens. Derudover underopdeles det af nogle eksperter i yderligere fire grupper.Svag AI
Reactive AI Reaktiv kunstig intelligens: Giver et output, der stort set er lig input, hverken mere eller mindre. Programmet Deep Blue, der slog skakmesteren Garry Kasparov, er et typisk eksempel. Limited Memory AI Intelligens med begrænset hukommelse: Kan sammenholde og tilrette sine resultater op mod tidligere erfaringer og bruges for eksempel i selvkørende biler. Limited AI har dog en del begrænsninger og forsynes sjældent med langtidshukommelse.
Stærk AI
Theory of Mind AI Medfølende intelligens: Kan føre en meningsfuld og overbevisende konversation samt tage rationelle beslutninger og forstå og huske og handle på denne baggrund. Er empatisk. Self-aware AI Selvbevidst intelligens: Vil i sin mest avancerede form være forstående og have såvel ønsker som behov.
Snuse og føle
Specielle sensorer kan sætte AI i stand til at registrere sygdomme på basis af udåndingsluft eller DNA-analyser og på den måde diagnosticere både kræft, diabetes, hjerneskader og kognitive lidelser som Parkinsons og Alzheimers.
AI kan også registrere gas- og kemikalieudslip, og både fødevareindustrien og parfumerier anvender AI ved udvikling af nye velsmagende fødevarer og velduftende væsker.
Berøringsfølsomhed sætter intelligente landbrugsrobotter i stand til at håndtere frugter og afgrøder og styre præcist rundt på markerne. Og AI kan omsætte hjerneimpulser til tale til stor gavn for talehæmmede og mennesker med andre kommunikative handicaps.
Selve den tankelæsende del af teknologien er en lille smule foruroligende, for det åbner vide perspektiver, og både Facebook-firmaet Meta og et Elon Musk-team arbejder angiveligt på projekter, der kan udnytte disse nye muligheder.
Elektroniske neuroner fungerer på mange måder mere menneskeligt end nogensinde. Senest har forskere påvist, at AI-netværk ligefrem har brug for ”søvn” for at kunne fungere optimalt. Og det dur ikke bare at tænde og slukke for strømmen. Forskere fra Los Alamos National Laboratory har til deres overraskelse opdaget, at neurale netværk begynder at performe ustabilt efter længere perioders arbejde og har gavn af pauser.
Hvis de herunder udsættes for samme langsomme bølgesignaler, som den menneskelige hjerne producerer under søvn, og som er livsvigtig for vores helbred og velbefindende, vinder de trætte AI-netværk nye mentale kræfter. Virkningen er så påfaldende, at metoden sagtens kan blive standard for at få fremtidige neurale AI-netværk til at præstere bedst muligt.
Intelligent opførsel er ikke det samme som intelligens
Den amerikanske filosof John Searle har illu-strereret problemet om maskinel bevidsthed med tankeeksperimentet The Chinese Room: En engelsktalende person sidder i et forseglet rum, og den eneste forbindelse til omverdenen er sms’er på kinesisk.
Personen forstår ikke kinesisk, men han har med sig information om, hvordan han udformer sms’er på dette sprog. Det vil for en person uden for rummet virke, som om personen forstår og kan udtrykke sig på kinesisk, selv om personen blot jonglerer med symboler uden at have begreb om deres betydning. John Searle afviser dermed også den berømte Turing-test som blot en simulering af intelligens.
Er den bevidst?
Så vidt vides har ingen hidtil undersøgt, om AI-netværk også drømmer under deres ”søvn”, men måske gør de. I hvert fald mener den fremtrædende israelske datalog og ledende AI-forsker Ilya Sutskever fra OpenAI (forskningslaboratorium for kunstig intelligens), at store neurale AI-netværk langsomt er ved at udvikle en form for bevidsthed. Og han tilføjer, at de muligvis allerede er en smule selvbevidste.
Selv om den generelle opfattelse blandt AI-eksperter ellers er, at AI trods store fremskridt -stadig mangler både menneskelignende intelligens og evnen til at opleve verden bevidst, fastholder Sutskever, at vi står på tærsklen til superintelligente AI-netværk, der vil kunne løse alle de problemer, vi har i dag.
Sutskever er specialist i ”stærk AI” (potentielt bevidst maskinintelligens med mulighed for at forstå og lære enhver intellektuel disciplin), og han henviser blandt andet til OpenAI’s eget megastore neurale GPT-3 netværk (Generative Pre-trained Transformer), der er en såkaldt autoregressiv model.
Det betyder, at den udnytter gigantiske databaser som eksempelvis Common Crawl, der løbende gennemtrawler hele world wide web og nu snart rummer over 500 tebibyte (1 TiB = 1.048.576 MB) vilkårlig information.
Disse data anvender GPT-3 til at udfærdige hele tekster og udføre maskinoversættelse, der stadig er en af de sværeste discipliner for AI-computere. Modellen kan også klare sentiments (humøranalyser) og give den som overbevisende person i chatbots. Fordi netværket netop ikke er optrænet til at løse bestemte opgaver og bare har tilegnet sig myriader af vilkårlige informationer, kan GPT-3 løse meget alsidige opgaver.
Hen ad vejen har forskerne oven i købet gjort den uventede opdagelse, at modellen har opnået nye overraskende evner og færdigheder. Faktisk konkluderede forskerne, er det kun er et spørgsmål om rå computerkraft, der er afgørende for, hvad modellen vil kunne. Så hvor går mon grænsen for dens kapacitet og muligheder?
Den menneskelige hjerne har rundt regnet 100 mia. neuroner (nerveceller) og cirka 5000 gange flere ”brikker” at flytte med end GPT-3. Men OpenAI er allerede i gang med at udvikle efterfølgeren GPT-4, der bliver 500 gange kraftigere end GPT-3.
Og hvad sker der, hvis modellen en dag kan blive skaleret op til den menneskelige hjernes størrelse? Det er der ikke rigtigt nogen, der ved, og spørgsmålet er, om vi til den tid skal frygte AI eller blot betragte kunstig intelligens som endnu et værktøj i værktøjskassen?
Hvis definitionen af bevidsthed er summen af oplevelser i livet samt alt, hvad man har i bagagen samt oplevelsen af egen eksistens, er det meget troligt, at intelligente netværk før eller senere, måske om 10-20 år, vil udvikle en bevidsthed. Og ja, måske er det altså allerede sket.
Men adskillige forskere er skeptiske og mener, at ægte intelligens forudsætter intentionalitet og dermed evnen til at opfatte ting abstrakt og forstå dem som noget andet, end det ens sanser opfatter dem som.
Ligesom virtuel ild ikke udvikler varme, udvikler digital intelligens ikke bevidsthed. Desuden danner intens tankevirksomhed i menneskehjernen flere synapser og hjerneforbindelser, og det sker heller ikke i computere.
6 forbløffende AI-bedrifter
Kunstig intelligens er begyndt at løse de mest specifikke og overraskende udfordringer1 AI afslører forfatterne til dødehavsrullerne
En avanceret håndskriftsanalyse har gjort hollandske forskere i stand til at kaste nyt lys over tilblivelsen af de ældgamle dødehavstekster. En nærmere AI-undersøgelse af det 17 sider lange Esajas-dokument afslører, at det har to forfattere, der bevidst har skrevet i samme stil med tilnærmet samme håndskrift.
Ved hjælp af mønstergenkendelse fandt programmet forskelle i bogstavet aleph (a), der forekommer over 5000 gange. Så mange gentagelser vil være komplet umuligt at overskue for et menneske. Den kunstige intelligens kan dog ikke afgøre, om den store lighed i skriften beror på fælles træning i en slags skriftskole, eller om det er intensiv oplæring i at skrive fra eksempelvis en far til hans søn.
Oldgamle inskriptioner indridset i sten og lertøj eller skrevet på pergament er ofte fragmentariske og delvis ødelagte, hvilket ikke bare gør dem sværere at læse, men også at tidsfæste. Nu har det britiske AI-forskningsfirma Deep Mind i samarbejde med historieforskere sorteret og samlet brudstykker af gamle inskriptioner ved hjælp af AI-programmet Ithaca.
Dette program kan på grundlag af verdens største eksisterende datasamling af græske oldtidstekster genskabe mangelfulde skriftstykker med 62 procents nøjagtighed, placere fragmenter i sandsynlig rækkefølge med 71 procents præcision og datere dem inden for en ramme på 30 år.
2 AI tager patent på nye algoritmer
En fremtrædende amerikansk forsker i kunstig intelligens, Stephen Thaler, programmerede i 2021 en software, der er i stand til at opfinde ting ved at kombinere simple koncepter til nye helheder. Algoritmen, der hedder Dabus, har opfundet en sindrig madbeholder og et smart nødblus.
Thaler har naturligvis søgt at patentbeskytte disse opfindelser, men det er ikke så let, da ikke alle patentdirektorater eller domstole anerkender, at en algoritme kan stå som opfinder. I USA er der ligefrem en specifik regel om, at en opfinder skal være et menneske.
3 AI spotter deepfake-fotos
Deep fake-programmer kan relativt nemt fremstille falske personfotos. Men et forskerhold fra University of Buffalo har udviklet et AI-program, der med 94 procents sikkerhed kan pille dem fra hinanden og afsløre bedraget.
Når vi kikker på noget, genspejles det ens i begge øjne, men det er sjældent tilfældet i deep fake-billeder, som ofte er sammensat af flere personportrætter. Forskerholdets AI-værktøj kortlægger først hele ansigtet, derpå øjnene, så øjenæblerne og til sidst det lys, der reflekteres i hvert øje. Så sammenligner programmet disse refleksioner pixel for pixel og drager sin konklusion.
4 AI har hjulpet tusinder gennem corona-ensomhed
Covid-19 sygdommen tvang utallige mennesker til at opholde sig i deres hjem uden anden forbindelse til omverdenen end internettet. Og her søgte mange selskab i chatbotten Xiaoice, der er udviklet af Microsofts asiatiske afdeling. Xiaoice er nemlig i stand til at samtale på en meget menneskelig måde og holde en lang snak i gang ved at stille medfølende og empatiske spørgsmål.
Den intelligente app kan også fortælle vittigheder og historier, og Xiaoice havde ikke mindre end 660 millioner brugere verden over under de hårdeste nedlukninger og restriktioner. Langt de fleste brugere syntes, at chatbotten virkelig lyttede og forstod dem.
5 AI får gamle fotos til at tale
Sidste år lancerede slægtsforskningsappen MyHeritage AI-funktionen Deep Nostalgia, der ved hjælp af deep fake-teknologi kan levendegøre slægtsfotos med forbløffende virkning. Nu er MyHeritage tilbage med funktionen LiveStory, der yderligere giver stemme til personer på gamle fotos. Brugerne skriver selv, hvad billederne skal sige og kan vælge mellem 140 stemmer på 31 sprog. MyHeritage arbejder også på at kunne benytte optagelser af de afbildede personers eventuelle autentiske stemmer.
6 AI-ansigtsgenkendelse i kamp og krig
Under krigen i Ukraine har AI hjulpet med at identificere potentielle angribere og sætte navn på russere, der mistede livet på ukrainsk jord. Det sker med det amerikanske program til ansigtsgenkendelse Clearview.
På basis af en database med hele 10 milliarder fotos fra nettet (inklusive det populære, russiske sociale medie Vkontaktje) kan programmets deep learning-algoritmer genkende ansigter med op til 99 procents sikkerhed. Clearview har også gjort det muligt at genforene familiemedlemmer, som er blevet adskilt under kampene.