Læs også:
Sådan vil fremtidens computere blive klogere af sig selv
Video: Her er alle de vilde fremtids-teknologier
Forskerne i Googles laboratorier har for nyligt gjort et opsigtsvækkende fund.
Udover at opfinde den selvkørende bil og Google-brillen, har Googles topforskere i softwareselskabets hemmelige X Laboratorium brugt computere til at simulere den menneskelige hjerne.
Undervejs i forsøget har de fundet ud af, at den computerskabte hjerne kan genkende katte.
Det skriver The New York Times.
Kan skelne mellem billeder
Google-folkene har opnået deres resultater ved at koble 16.000 processorer sammen i et neuralt netværk med over en milliard forbindelser, og derefter sluppet det løs på internettet.
Derefter har Googles kunstigt skabte intelligens selv kunnet skelne og selv finde videoer af katte på Youtube blandt 10 millioner digitale billeder.
Googles kunstige hjerne har samtidigt overrasket sine skabere, da det neurale netværk har fordoblet sin præcision i at kunne skelne mellem 20.000 udvalgte objekter.
Sådan fandt computerne kattene
I arbejdet med at finde katte på Youtube, har Googles laboratoriefolk med Stanford-forskeren Andrew Y. Ng og Google-fellow Jeff Dean i spidsen først fodret maskineriet med de 10 millioner billeder fra videositet.
Dernæst har de sat computerne i det neurale netværk til at skelne mellem de mange billeder.
Og selvom det neurale netværk aldrig har fået fortalt, hvad en kat er for en størrelse, så kunne det efter flere visninger genkende det firbenede kræ.
"Ideen er, at i stedet for at have forskere til at afsøge grænseområderne, så smider du i stedet tonsvis af data afsted mod algoritmen og lader softwaren automatisk lære fra data," forklarer Dr Ng omkring forsøget med den kattegenkendende computer.
"Computeren opfandt grundlæggende bare konceptet "kat"," tilføjer Dr. Dean om forsøget.
Selvom glæden er stor ovenpå fundet af den selvlærende maskine, så maner Dr. Ng til besindighed omkring at udvikle selvtænkende maskiner.
"Det vil være helt fantastisk, hvis det viser sig, at vi bare skal tage den eksisterende algoritme og køre den i større skala, men min mavefornemmelse siger mig, at vi ikke helt har den rigtige algoritme endnu."
Læs også:
Sådan vil fremtidens computere blive klogere af sig selv