Ja, den var straks værre.
Ved at placere en fil ved navn robots.txt i websidens rod, kan du sætte begrænsninger op for diverse crawlers (se
http://en.wikipedia.org/wiki/Robots.txt). Alle de gængse crawlere skulle respektere de grundlæggende ting i den (men der er selvfølgelig også "mindre gængse" crawlere der ignorerer den).
Selvom robots.txt ikke er en egentlig standard, så er der alligevel visse "mindre standardiserede ting". Det tæller bl.a. en angivelse der hedder Crawl-delay, der lader dig angive at der skal gå et vist antal sekunder mellem de enklete requests fra en crawler, men jf.
http://www.google.com/support/webmasters/bin/answer.py?answer=35239&query=delay&topic=&type= kigger Google ikke på den. Yahoo og MSN gør dog.
Du kan godt bruge robots.txt til helt at bandlyse Google, men det er du vel ikke interesseret i.
Den bedste løsning må vel være at finde ud af hvorfor det volder så store problemer - det kunne tyde på at det måske er din kode der kunne trænge til at blive optimeret.