Udviklingen af våben uden menneskelige fingre på aftrækkeren er gået for vidt og bør stoppes.
Det mener professor i kognitiv computing, Mark Bishop, ved Goldsmith Universitetet i England, hvor han også sidder som formand for Foreningen for Studier af Kunstig Intelligens og Simulering (AISB).
Professoren påpeger at det stadigt stigende forbrug af forsvarsvåben som det amerikanske Phalanx-system og ubemandede angrebsrobotter som det israelske antennekøretøj Harpy designet til at angribe radarssystemer simpelthen er et skred i en meget uheldig retning.
Det skriver New Scientist.
Kan føre til seriøse konflikter
"Der er grunde til at tvivle på, om selvstyrende systemer kan afgøre, hvornår de skal tages i brug, om de reagerer proportionalt i forhold til truslen, og om de kan skelne mellem soldater og civilbefolkning," siger Mark Bishop til New Scientist.
Professorens udtalelser kommer i forbindelse med, at en international kampagne initieret af flere NGO'er vil have stoppet dræberroboternes fremmarch.
Mark Bishop hejser også et advarselsflag, når det kommer til uforudsete konsekvenser i erhvervelsen af de mange komplekse selvkørende, -flyvende og -skydende softwarevåben med et eksempel fra bøgernes verden, hvor der også bliver brugt robotter til udarbejdelsen af priser.
"Et levende eksempel blev set på Amazon.com i 2011, da robotter satte prisen på bogen 'The Making of a Fly' til over 23 millioner dollar," forklarer han til New Scientist.
Og han vender sig hurtigt mod slagmarken igen, hvor de autonome våben sænker omkostningerne for både producenter og kunderne - hvilket vil sige regeringer overalt på kloden, der dermed kan købe endnu flere våben end i dag.
"I Sydkorea er forskere ved at udvikle en robot til at patruljere langs grænsen til Nordkorea. Hvis sådan en robot blev indsat forkert, eller den angreb uden forbehold for den reelle trussel, er det nemt at forestille sig, hvordan en mindre grænsesituation kunne udvikle sig til en seriøs konfrontation," siger Mark Bishop.
Undgik en atomkrig
Den britiske professor nævner også den famøse amerikanske militærøvelse Able Archer under Den Kolde Krig i 1983, hvor sovjetiske forsvarssystemer detekterede et amerikansk angribende missil mod russisk territorium ved en fejl.
Den sovjetiske oberstløjtnant Stanislav Petrov anså, at angrebet fra amerikanerne var en computerfejl, da radarer på jorden ingenting registrerede.
Den dengang 44-årige sovjetrussiske officer afværgede dermed reelt en atomkrig mellem Koldkrigens to supermagter - en atomkrig, der kunne have udslettet Jorden op til flere gange.
"Potentialet for våbenkapløb (inden for våben med kunstig intelligens, red.) bliver rigtig skræmmende, når du har autonome systemer, der interagerer med andre autonome systemer," siger Mark Bishop til New Scientist.
Goldsmith-professoren mener, at der skal globale aftaler til at bandlyse brugen af automatiske og "intelligente" våbensystemer.
"Teknologien bag autonome systemer har andre brugsscenarier som eksempelvis Googles bilkørselssystem," forklarer han.