Web crawler + multi threading
Hey,Jeg er i gang med en web crawler, som skal kunne "støvsuge" et website for html og billeder.
Programmet skal selvfølgelig have et "indgangslink", som skal gennemsøges for links (med regex) og links skal muligvis tilføjes til en slags pulje. Herefter skal der startes X antal tråde (det kunne være 10 f.eks.), som går i gang med at arbejde sig igennem de links der nu måtte være i puljen og i det trådende selv finder links, skal de også tilføjes til puljen osv. - eller det er i hvert fald mine tanker omkring det, indtil videre.
Jeg leder egentlig efter lidt tips/tricks til hvordan det med flere tråde, kunne implementeres i praksis.