Du kan også opnå en del ved at kikke på kodningen af dine links. Disse er meget typiske dynamiske, og google begrændser aktivt dybden at indexisering i dynamiske sites.
Dette gøres dels for at undgå at googlebot bliver fanget i uendelige loops og dels for at minimere den tid googlebot skal bruge i det enkelte site.
Du bør kikke på muligheden for at lave f.eks.
http://www.vvsworld.dk/Menu_ny.asp?kat=1502&realid=0&Kid=1502#1502om til
http://www.vvsworld.dk/1502/Kid/1502.htm eller tilsvarende. Google og andre søgemaskiner er dårlige til at håndtere alle disse specialtegn og bruger tilstedeværelsen af disse til at begrændse dybden. Ved at lave koden så linket ligner et almindeligt href link, opnår du at google indexisere i fuld dybde.
Sammenhængen mellem META, title og indhold på den enkelte side er meget væsentlig, og kan du indbygge søgeordet i linket også er det en fordel.
Sitemap bør laves så de ser så udynamiske ud som muligt og især links skal heldst være helt almindelige href links.
Som hovedregl bør du lave din linkstruktur med sitemap således at alle sider kan nås med max 3 klik med musen (index.htm er 1. klik, sitemap er 2. klik side er 3. klik) og alle dine sider bør have mindst 3 links der peger på dem idet en side der kun har et link ikke er væsentlig.
Hvis du kan få eksterne sites til at linke ned i dit site, så googlebot også oplever at komme ind i dit site dybere i strukturen, er dette en fordel