Computere bliver hele tiden klogere, og en dag er de måske så kloge, at vi mennesker ikke forstår dem længere.
Den dag ligger dog formentligt så langt ude i fremtiden, at de fleste af os residerer for evigt syv fod under jordens overflade.
Ikke desto mindre opfordrer professor Thomas Ploug computerbyggere til at overveje deres skaberværk, når det kommer til at indbygge kunstig intelligens.
Udover at være professor i anvendt etik ved Center for anvendt etik og videnskabsfilosofi ved Aalborg Universitet i København er Thomas Ploug medlem af Etisk Råd.
Et klassisk dilemma
På den baggrund har Computerworld bedt ham om at ridse op, hvordan etik og kunstig intelligens danser sammen.
Og Thomas Ploug mener, at der er flere faldgruber, når vi gerne vil have de kunstigt intelligente maskiner til at opføre sig etisk.
"Der er det næsten klassiske dilemma om, hvordan en selvkørende bil skal vælge mellem at køre ind i to ældre damer eller i en lille pige, hvis den ikke kan undgå kollision og er tvunget til at træffe et etisk valg," siger han.
"Der er også de situationer med kombinationen af lyn, torden, minus 15 grader, kørsel på glatte veje, i mørke, som vi aldrig har prøvet før. Vi har i sådanne situationer udfordringer med, hvordan den kunstige intelligens vil reagere," fortsætter Thomas Ploug.
Problemet med de autonome
Udover at droner kan genere privatlivets fred med et øje i det høje, og selvkørende biler kan komme ud for lidt af hvert, arbejder blandt andre USA på at sende dræberrobotter i krig.
Læs også: Forsker: Stop dræber-robotterne før det er for sent
Professor Thomas Ploug frygter dog ikke ligefrem, at disse robotter i bedste/værste Hollywood-stil bliver onde og vender sig mod os.
Derimod er han betænkelig ved, at man lægger for meget beslutningskraft over i intelligente robotter, som i sidste ende er en bunke hardware og software med indbyggede instrukser.
"Man kan stille sig selv det spørgsmål, om en fejlramt dræberrobot kan skelne mellem venner og fjender. Når det kommer til at dræbe, må der jo bare ikke være nogen fejlmargin, og her den menneskelige styring af robotten uhyre vigtig," siger Thomas Ploug og fortsætter:
"Problemet er jo ikke, at vores maskiner bliver intelligente, men snarere at de bliver autonome. De kan jo risikere at træffe beslutninger på få splitsekunder, som vi mennesker synes, er meget uheldige."
Maskiner gik amok med hinanden
Kort sagt: Professor Thomas Ploug mener, at vi mennesker aldrig må slippe styringen af de intelligente maskiner mere end højst nødvendigt.
"De teknologiske forudsætninger for kunstig intelligens er vi jo stadig herre over, og forbliver vi ikke det, kan der opstå meget kritiske situationer med kunstig intelligens på afveje," forklarer han.
Et katastrofalt eksempel herpå - om end helt livsufarligt - opstod i 2010, da en maskine på børsen i New York fejlagtigt forsøgte at sælge aktier til en værdi af 30 milliarder kroner på et tidspunkt, hvor der allerede var en del uro på markedet.
Den udmelding fik andre handelsrobotter forfinet til handler på mikrosekunder til at reagere, og i løbet af en halv time styrtdykkede Dow Jones Industrial Index i USA med næsten 1.000 point - et såkaldt "Flash crash".
Læs også: Løbsk algoritme udløste mini-børskrak
Den lavine af uheldige beslutninger ville være meget trist at følge på eksempelvis et hospital, mener Thomas Ploug.
"Vi mennesker har en dømmekraft, som du ikke bare kan sætte på formel. Dømmekraft i nye, unikke situationer er formentligt noget, som kun vi mennesker kan håndtere. Et etisk rigtigt valg i én situation, kan være et etisk forkert valg i en anden situation," afrunder Thomas Ploug.
Læs også:
Krav om etiske regler for dræber-robotter
Googles søgemaskine skal kunne tænke selv - ekspert i AI ny topchef for søgeforretningen