23. marts 2012 - 13:15Der er
19 kommentarer og 1 løsning
Hente information fra side
Hej
Er det muligt at crawle en hel hjemmeside når hjemmesiden fx ligger på en netværks router? I ved det interface man får frem ved gå ind på dets gateway20 som fx på 192.168.1.1
Der er mange detaljer i sådan en opgave. Mon ikke netværket er beskyttet? I så fald skal cURL jo logge ind. Sætter netværket cookies ved login, osv, osv
Det er ikke til at vide, hvordan det er bygget op. At en webserver på en maskine under netværket, betyder således ikke nødvendigvis, at serveren er en del af netværket
Problemet er som tidligere beskrevet at få adgang til siden på netværket. Derefter er det bare at grabbe indholdet - hvilket kan gøres på snesevis af måder =)
Nej, du har ikke problemer fordi, siden skal tilgås via IP-adressen. Det skyldes formodentlig, at serveren ikke er del af netværket - eller har adgang til dette
Så er problemet, at det er din bruger, som har adgang til netværket. Din lokale server ses fra netværkets POW ikke som hørende til din bruger, hvorfor den ikke har adgang til dokumentet.
Problemet løses ved, at netværket åbnes for din lokale server. Hvordan det sker, ved jeg til gengæld ikke
Tilladte BB-code-tags: [b]fed[/b] [i]kursiv[/i] [u]understreget[/u] Web- og emailadresser omdannes automatisk til links. Der sættes "nofollow" på alle links.