Inden længe kan det blive muligt for din computer at afkode den handling, som du er i gang med, ved at 'betragte' dig gennem computerens kamera.
Sådan lyder det fra det kendte teknologi-universitet MIT, der har stået i spidsen for udviklingen af en ny algoritme, der kan afkode bestemte bevægelser og lægge dem sammen til en konklusion.
Udviklerne har anvendt samme metode, som blandt andet IBM's Watson-supercomputer og andre 'selvlærende' computere bygger på, i arbejdet med at skabe en slags grammatik, som computeren kan bygge de samlede konklusioner på.
Som i Watson nedbryder løsningen komplicerede handlinger i små dele.
Dernæst leder algoritmen efter mønstre, der passer med de regler og den 'grammatik,' som den kender i forvejen.
Universitets nye løsning er i stand til at afkode videoer i realtid, fordi løsningen er i stand til at formulere ret præcise gæt baseret på bevægelser, som bliver udført.
Ifølge professor Deva Ramanan vil løsningen eksempelvis lægge en bevægelse, hvor noget lægges i en kop samt en bevægelse hvor en arm hælder vand i en kedel efterfulgt af bevægelsen, hvor vand hældes fra en kedel til en kop, sammen til et gæt på, at der brygges te.
"Det spiller ingen rolle, om du først lægger tebrevet i en kop eller sætter kedlen på komfuret. Men for løsningen vil det være afgørende, at du sætter kedlen på komfuret, før du hælder vandet i en kop," siger professoren.
Forskerne har endnu ikke noget bud på, hvornår algoritmen vil finde vej til den rigtige verdens konkrete produkter. De er dog ikke i tvivl om, at det vil ske på et tidspunkt.
"Mange virksomheder arbejder på at kommercialisere 'seende' computersystemer, så vi er sikre på, at automatiske handlings-genkendende sstemer snart vil finde vej til konkrete produkter," lyder det.