Hvis du mangler pen og notatblok til et fremtidigt møde, er der måske hjælp på vej fra IBM's forskningslaboratorium.
For IBM Research Lab er i samarbejde med Big Blues Lotus-gruppe gået i gang med at alfa-teste en teknologi, der skal gøre video- og lydoptagelser søgbare blandt andet ved hjælp af tale-til-tekst-teknologi, som it-giganten efterhånden har stor erfaring med at udvikle.
Servicen med det automatisk genererede mødereferat virker på den måde, at man kan søge eksempelvis i et videoklip på ét specifikt ord eller en slide, og derefter vil programmet automatisk vise, hvor i mødet eller præsentationen ordet optræder en, to eller flere gange.
Det søgbare møde, der lige nu går under betegnelsen collaborative recorded meeting, har til hensigt, at mødedeltagerne og andre interessenter efter et møde kan se samtalerne transskriberet og indekseret.
Det betyder, at man i en video kan søge efter specifikke ord og automatisk bladre hen til det sted, hvor der blev talt om de søgte emner - uden først at kalibrere mødedeltagernes stemmer.
Det fortæller research manager Ravi Konuru fra IBM Research Lab, hvor der i alt er 2.500 ingeniører, der arbejder med grundforskning i en myriade af forskellige teknologier blandt de knap 5.000 patenter, som IBM kaprede i 2009.
"Når du eksempelvis har holdt et møde på en time, vil det være muligt at søge efter teksten i videoen eller lydklippet fra mødet et kvarter efter, det er slut," forklarer han til Computerworld på IBM's Lotusphere.
Tag dig til bedre resultater
Indtil videre tøver han med at kalde det automatiske mødereferat et produkt, selv om det er blevet fremvist flere gange på Lotusphere 2010 som en del af LotusLive Labs, der består af morgendagens services i IBM's cloud-produkt.
"Vores tests viser, at transskriberingen ligger på omkring 75 procent korrekte ord fra samtalerne, og det kan gøres endnu bedre, alt efter, hvor man er placeret i rummet og mødedeltagernes udtalelse," siger Ravi Konuru.
Prøv tøj i virtuelt prøverum
For at gøre talestumper endnu mere søgbare er det også muligt for mødedeltagerne efterfølgende at tagge eller kommentere på specifikt udvalgte og vigtige tidsintervaller i optagelserne.
Ravi Konuru forklarer, at servicen er inddelt på fire forskellige services, der siden hen bliver samlet i den søgbare brugergrænseflade, hvor en player automatisk bladrer hen til det sted i mødet, hvor ordet bliver sagt første gang.
Der er transskriberingsservicen, hvor tale-til-tekst-algoritmen bliver udført. Dernæst er der en præsentationsserver, som kan søge på præsentations-slides i et bibliotek, hvorefter man kan se det tidspunkt på mødet, hvor den givne slide var oppe på storskærmen.
For det tredje er der en video-streaming-service med playeren og slutteligt Lotus-web-konferenceproduktet Unyte, som fungerer som brugergrænsefladen og platformen for udveksling af mødereferatet.
Det virtuelle prøverum
IBM Research Lab arbejder også med en lang række af andre genkendelsesteknologier - blandt andet tekst i video, hvor det vil være muligt at søge på ord og sætninger i en videooptagelse fra eksempelvis Berlinmuren.
Også ansigtsgenkendelse er på laboratorie-agendaen samt afkodning af kropssprog på den helt lange bane.
"Vi taler om, at det skal være muligt, at man kan prøve forskelligt tøj virtuelt," forklarer Ravi Konuru.
Det virtuelle omklædningsrum vil i praksis betyde, at man eksempelvis kan sidde foran et webcam og virtuelt prøve det tøj, som man finder i forskellige butikker på nettet, inden man køber det. Men det projekt er dog endnu ikke nået helt op på tegnebrættet endnu.