28. juni 2012 - 19:16Der er
19 kommentarer og 1 løsning
kan man skjule et links url?
Hejsa, er det muligt at linke til en fil uden at brugeren ser dets rigtige url ved download af denne? F.eks. så brugeren kun ser at filen kommer fra domænet men ikke ser selve stien?
Teknologi, AI og forretning er i centrum på Computerworlds Cloud og AI Festival i København d. 18. og 19. september. Se hele programmet for den store konference om strategisk brug af Cloud og AI på: www.cloud-festival.dk
#1 Det lyder som en god ide, men jeg kan ikke lige se hvodan det skal gøres på f.eks. en .zip fil? som jeg ser det tager tutorialen udgangspunkt i at begrænse brugeren ved f.eks. at nægte adgang med siterippers. Det jeg gerne vil undgå er at stien bliver kendt af en "rigtig" besøgende, som vil kunne se url ved at føre musen ind over linket.
#2 nej, det jeg vil opnå er at min mappe med downloads (rigtig mange) bliver kendt da det vil medføre at brugerne vil siterippe mappen i stedet for kun at downloade de filer de reelt kun har brugt for.
#3 Det lyder spændene, mener du gemme url i databasen og så redirecte brugeren til denne url? ... jeg mener at IE download manager stadig vil vise hviken url downloaden kommer fra men er ikke sikker? Har du et eksempel?
"#2 nej, det jeg vil opnå er at min mappe med downloads (rigtig mange) bliver kendt da det vil medføre at brugerne vil siterippe mappen i stedet for kun at downloade de filer de reelt kun har brugt for."
Det kan hverken #1 eller #3 hjælpe dig med alene. Det kræver en meget kompleks løsning. YouTube er i evig kamp for at forhindre uønskede downloads og bruger løbende oceaner af udviklertimer og dollar på deres løsning.
#2 lyder absolut som den mest realistiske løsning på dit problem
Uden at have læst det hele, så kunne du lave så der kaldes med oleboles query string, og så sætte downloads til max 5 i en php session f.eks. hver time. Så bliver du ikke sitestripped ihvertfald.
Og placer download mappen væk fra normal mulig tilgang, så man SKAL igennem et php script for at få leveret en fil?
jeg har til et sitemagic cms fx denne .htaccess RewriteEngine on RewriteCond %{REQUEST_FILENAME} !-f RewriteCond %{REQUEST_FILENAME} !-d RewriteRule ^([^/\.]+)/?$ index.php?SMPagesFilename=$1 [L]
så links i stedet for domæne.dk/index.php?SMPagesFilename=noget bare er domæne.dk/noget (jeg har rettet igennem, så også menuen bruger den korte form - bare så der er lukket af for grimme links) du kan lave en tilsvarende, og bare automatisk sætte en .zip endelse på (udover mappenavn).
claes Jeg har svært ved at se, det skulle ændre noget somhelst. Ja, filen får en 'dækadresse', som ser lidt anderledes ud - men filen kan jo til enhver tid nås med den nye adresse. Adgangen til at downloade filen er præcis ligeså god og enkel efter din omskrivning, som den var før.
Men det kan ikke udelukkes, jeg helt har misfortået, hvad du skriver =)
jeg har ikke prøvet det med en zip-fil - men i ie/firefox vises kun den korte adresse. Jeg tænker her, at man har en tom mappe (/dl med .htaccess) og har downloadlinks /dl/filnavn til denne - disse rettes så til fx /downloads/filnavn.zip (som bruger ikke ser, og holdes ude af søgemaskiner)
#9: Ja, men hvad er det, der hindrer folk i at downloade den? Meningen er - som jeg læser spørgsmålet - at bruger ikke vil have, man kan suge fra hans mappe. Det kan man stadig med din løsning - filerne kaldes bare ved et lidt andet navn.
Kender du filernes 'nye' navne, kan de downloades en masse. På fuldstændig samme måde, som de kan, hvis man ikke ændrer navnene. Det er ligemeget, om IE/Firefox 'kun viser den korte adresse', når filen kan downloades via denne.
Jeg tror bare ikke, at min ide giver adgang til at hente 'alle filer' i mappen, da den mappe, som brugeren kender, er tom. At en bruger kan hente samme fil 500 gange må være uinteressant - det kan en bruger eller en søgemaskine næppe bruge til noget.
Hvis jeg har de korte stier fra en robot, ændre det jo heller ikke noget i forhold til de lange. Jeg forstår ikke rigtig, hvad du mener, det skulle hjælpe =)
mmm .... jeg har svært ved lige at følge debatten hehe, men jeg har fået nogen gode ideer som jeg vil teste. Mit grundlæggende problem er at der findes robotter der fuldstændig ignorerer robot.txt og muligvis også .htaccess da jeg har forsøgt at blokere dette men de kan stadig hente samtlige filer så længe man bare fortæller den det rigtige bibliotek., hvordan den gør ved jeg ikke? Jeg kan ikke få lokket hvermen programmet eller dets navn ud af min test person :-(
En mulighed er selvfølgelig som foreslået i #6 at begrænse antallet af mulige downloads i en given tidsperiode .... men så er kunsten at sætte grænsen så høj at det netop vil tage alt for lang tid for robotten at arbejde sig igennem.
Jeg tænker at prøve med at tillade 1 download/5. minut, og så vil jeg fylde op med alfabetisk strategiske filer på 1kb ind imellem så robotten bliver sløvet ekstra meget da den øjentsynligt arbejder sig fremad alfabetisk igennem fillisten.
Site rippers er vanskelige at gardere sig imod. Det, du beskriver, kan dog ikke lade sig gøre. Med mindre du har et gigahul på din server, er et mappenavn ikke nok til, at en ripper kan finde dine filer. Den kan ikke finde en fil uden at finde et link til den =)
Vil du sikre dig mod den slags downloads, er en proxy server foran din nuværende server en mulig løsning. Du skal helt derud ... du kan ikke scripte dig ud af problemerne. En velskrevet, dedikeret site ripper kan i princippet fuldstændig efterligne en browser. Den kan derfor logge sig ind - læse og aflevere cookies - og dermed fuldstændig efterligne en bruger. Og login med captcha er nok næppe en tilfredsstillende løsning :o|
Anyway, så er det muligt, jeg har en løsning, som de færreste bestående rippers vil kunne klare - hvis nogen overhovedet. Tråden her inspirerede mig til en løsning, som jeg skrev lidt på i går aftes. Den ender nok i en guide, da den også vil kunne bruge den til at undgå deep linking til billeder og andre filer - og derfor vil være interessant for mange flere brugere.
Jeg skal til 60-års fødselsdag senere, så det er ikke sikkert, jeg når at banke den op i dag - men ellers kommer den op i morgen. Jeg smider en besked her, når den går i luften =)
haha ... ja det er forståeligt nok! god kamp forresten :-)
Jeg har fiflet lidt med det og fundet en løsning jeg kan acceptere. Jeg har lave en lille kombination af en session der styrrer antallet af downloads ved hjælp af et timestamp, så har jeg puttet en lille index.php fil ind i hvert enkelt bibliotek der gemmer filerne, denne index.php har kun den eneste funktion at sende alle der besøger mappen tilbage til forsiden. Robotterne bliver narret af den og ser ikke resten af filerne i biblioteket :-) .... dertil har jeg puttet små filer ind imellem de rigtige filer med navne der lægger sig opad de rigtige filnavne, derved skal robotterne der downloader fra forsiden vente længe på at få filerne.
ja det er lidt rodet, men det virker for mig :-)
Synes godt om
Slettet bruger
02. juli 2012 - 23:19#18
Du lagde ud med at det var en "rigtig" bruger du ville forhindre i at kunne "se" linket til en fil. Men nu virker det som om det er crawlers du vil forhindre, fordi de ikke respekterer robots.txt. Uanset hvad, så tvivler jeg på at du har fundet den "rigtige" løsning. :)
ja, det er også det jeg vil. mit problem er at en "rigtig" bruger kigger på linkene og ser hvor jeg har placeret mine filer, så sætter han en robot til at hente hele biblioteket ned. Dette har jeg forhindret ved ovenstående. Selvom han skulle kunne bypasse mine index.php'ere i filbibliotekerne, må robotten downloade via forsiden, hvor dan så må vente i kø for at få næste fil. Jeg har ingen problemer med dette, da det ikke vil belaste båndbredden på min side betydeligt.
Tilladte BB-code-tags: [b]fed[/b] [i]kursiv[/i] [u]understreget[/u] Web- og emailadresser omdannes automatisk til links. Der sættes "nofollow" på alle links.