Avatar billede gsa Nybegynder
28. juni 2012 - 19:16 Der er 19 kommentarer og
1 løsning

kan man skjule et links url?

Hejsa, er det muligt at linke til en fil uden at brugeren ser dets rigtige url ved download af denne? F.eks. så brugeren kun ser at filen kommer fra domænet men ikke ser selve stien?
Avatar billede claes57 Ekspert
28. juni 2012 - 20:17 #1
med .htaccess http://www.htaccess-guide.com/
så kan du lave links som fx domæne.dk/seher og i virkeligheden køre fx domæne.dk/data/seher.php
Avatar billede Slettet bruger
28. juni 2012 - 20:28 #2
Tænker du på et one-time download link for at forhindre at den kan deles med andre?
Avatar billede olebole Juniormester
28. juni 2012 - 21:19 #3
<ole>

Du kan også lade den fil, brugeren tilgår, læse den fil, der skal downloades (på baggrund af en query streng), og skrive den ud on-the-fly.

Der er flere muligheder, og den gode løsning afhænger af, hvad du skal bruge det til og hvordan

/mvh
</bole>
Avatar billede gsa Nybegynder
28. juni 2012 - 21:53 #4
#1 Det lyder som en god ide, men jeg kan ikke lige se hvodan det skal gøres på f.eks. en .zip fil? som jeg ser det tager tutorialen udgangspunkt i at begrænse brugeren ved f.eks. at nægte adgang med siterippers. Det jeg gerne vil undgå er at stien bliver kendt af en "rigtig" besøgende, som vil kunne se url ved at føre musen ind over linket.

#2 nej, det jeg vil opnå er at min mappe med downloads (rigtig mange) bliver kendt da det vil medføre at brugerne vil siterippe mappen i stedet for kun at downloade de filer de reelt kun har brugt for.

#3 Det lyder spændene, mener du gemme url i databasen og så redirecte brugeren til denne url? ... jeg mener at IE download manager stadig vil vise hviken url downloaden kommer fra men er ikke sikker? Har du et eksempel?
Avatar billede olebole Juniormester
28. juni 2012 - 23:44 #5
"#2 nej, det jeg vil opnå er at min mappe med downloads (rigtig mange) bliver kendt da det vil medføre at brugerne vil siterippe mappen i stedet for kun at downloade de filer de reelt kun har brugt for."

Det kan hverken #1 eller #3 hjælpe dig med alene. Det kræver en meget kompleks løsning. YouTube er i evig kamp for at forhindre uønskede downloads og bruger løbende oceaner af udviklertimer og dollar på deres løsning.

#2 lyder absolut som den mest realistiske løsning på dit problem
Avatar billede The_Buzz Novice
29. juni 2012 - 07:15 #6
Uden at have læst det hele, så kunne du lave så der kaldes med oleboles query string, og så sætte downloads til max 5 i en php session f.eks. hver time. Så bliver du ikke sitestripped ihvertfald.

Og placer download mappen væk fra normal mulig tilgang, så man SKAL igennem et php script for at få leveret en fil?
Avatar billede claes57 Ekspert
29. juni 2012 - 08:44 #7
jeg har til et sitemagic cms fx denne .htaccess
RewriteEngine on
RewriteCond %{REQUEST_FILENAME} !-f
RewriteCond %{REQUEST_FILENAME} !-d
RewriteRule ^([^/\.]+)/?$ index.php?SMPagesFilename=$1 [L]

så links i stedet for domæne.dk/index.php?SMPagesFilename=noget
bare er domæne.dk/noget (jeg har rettet igennem, så også menuen bruger den korte form - bare så der er lukket af for grimme links)
du kan lave en tilsvarende, og bare automatisk sætte en .zip endelse på (udover mappenavn).
Avatar billede olebole Juniormester
29. juni 2012 - 13:43 #8
claes Jeg har svært ved at se, det skulle ændre noget somhelst. Ja, filen får en 'dækadresse', som ser lidt anderledes ud - men filen kan jo til enhver tid nås med den nye adresse. Adgangen til at downloade filen er præcis ligeså god og enkel efter din omskrivning, som den var før.

Men det kan ikke udelukkes, jeg helt har misfortået, hvad du skriver  =)
Avatar billede claes57 Ekspert
29. juni 2012 - 15:07 #9
jeg har ikke prøvet det med en zip-fil - men i ie/firefox vises kun den korte adresse.
Jeg tænker her, at man har en tom mappe (/dl med .htaccess) og har downloadlinks /dl/filnavn til denne - disse rettes så til fx /downloads/filnavn.zip (som bruger ikke ser, og holdes ude af søgemaskiner)
Avatar billede olebole Juniormester
29. juni 2012 - 15:24 #10
#9: Ja, men hvad er det, der hindrer folk i at downloade den? Meningen er - som jeg læser spørgsmålet - at bruger ikke vil have, man kan suge fra hans mappe. Det kan man stadig med din løsning - filerne kaldes bare ved et lidt andet navn.

Kender du filernes 'nye' navne, kan de downloades en masse. På fuldstændig samme måde, som de kan, hvis man ikke ændrer navnene. Det er ligemeget, om IE/Firefox 'kun viser den korte adresse', når filen kan downloades via denne.
Avatar billede claes57 Ekspert
29. juni 2012 - 15:56 #11
Jeg tror bare ikke, at min ide giver adgang til at hente 'alle filer' i mappen, da den mappe, som brugeren kender, er tom. At en bruger kan hente samme fil 500 gange må være uinteressant - det kan en bruger eller en søgemaskine næppe bruge til noget.
Avatar billede olebole Juniormester
29. juni 2012 - 21:35 #12
Claes, hvad er forskellen? Brugeren har ingen anelse om, hvad der ligger i mappen. Vedkommende kan jo ikke få mappen listet og må gætte.

Jeg kender filen http://domain.dk/sti/noget.pdf og kan gætte, at der ligger en fil, som hedder http://domain.dk/sti/noget_andet.pdf.

Hvis jeg i stedet kender filen http://domain.dk/noget. Hvorfor skulle det så være sværere at gætte, der ligger en fil, som hedder http://domain.dk/noget_andet?

Hvis jeg har de korte stier fra en robot, ændre det jo heller ikke noget i forhold til de lange. Jeg forstår ikke rigtig, hvad du mener, det skulle hjælpe  =)
Avatar billede gsa Nybegynder
30. juni 2012 - 08:44 #13
mmm .... jeg har svært ved lige at følge debatten hehe, men jeg har fået nogen gode ideer som jeg vil teste. Mit grundlæggende problem er at der findes robotter der fuldstændig ignorerer robot.txt og muligvis også .htaccess da jeg har forsøgt at blokere dette men de kan stadig hente samtlige filer så længe man bare fortæller den det rigtige bibliotek., hvordan den gør ved jeg ikke? Jeg kan ikke få lokket hvermen programmet eller dets navn ud af min test person :-(

En mulighed er selvfølgelig som foreslået i #6 at begrænse antallet af mulige downloads i en given tidsperiode .... men så er kunsten at sætte grænsen så høj at det netop vil tage alt for lang tid for robotten at arbejde sig igennem.

Jeg tænker at prøve med at tillade 1 download/5. minut, og så vil jeg fylde op med alfabetisk strategiske filer på 1kb ind imellem så robotten bliver sløvet ekstra meget da den øjentsynligt arbejder sig fremad alfabetisk igennem fillisten.
Avatar billede olebole Juniormester
30. juni 2012 - 12:38 #14
Site rippers er vanskelige at gardere sig imod. Det, du beskriver, kan dog ikke lade sig gøre. Med mindre du har et gigahul på din server, er et mappenavn ikke nok til, at en ripper kan finde dine filer. Den kan ikke finde en fil uden at finde et link til den  =)

Vil du sikre dig mod den slags downloads, er en proxy server foran din nuværende server en mulig løsning. Du skal helt derud ... du kan ikke scripte dig ud af problemerne. En velskrevet, dedikeret site ripper kan i princippet fuldstændig efterligne en browser. Den kan derfor logge sig ind - læse og aflevere cookies - og dermed fuldstændig efterligne en bruger. Og login med captcha er nok næppe en tilfredsstillende løsning  :o|

Anyway, så er det muligt, jeg har en løsning, som de færreste bestående rippers vil kunne klare - hvis nogen overhovedet. Tråden her inspirerede mig til en løsning, som jeg skrev lidt på i går aftes. Den ender nok i en guide, da den også vil kunne bruge den til at undgå deep linking til billeder og andre filer - og derfor vil være interessant for mange flere brugere.

Jeg skal til 60-års fødselsdag senere, så det er ikke sikkert, jeg når at banke den op i dag - men ellers kommer den op i morgen. Jeg smider en besked her, når den går i luften  =)
Avatar billede gsa Nybegynder
01. juli 2012 - 19:11 #15
Super!!
Avatar billede olebole Juniormester
01. juli 2012 - 20:42 #16
Plan B: Reparation, Cola og fodbold i dag. Guiden må vente til imorgen mandag  =)
Avatar billede gsa Nybegynder
02. juli 2012 - 19:32 #17
haha ... ja det er forståeligt nok! god kamp forresten :-)

Jeg har fiflet lidt med det og fundet en løsning jeg kan acceptere. Jeg har lave en lille kombination af en session der styrrer antallet af downloads ved hjælp af et timestamp, så har jeg puttet en lille index.php fil ind i hvert enkelt bibliotek der gemmer filerne, denne index.php har kun den eneste funktion at sende alle der besøger mappen tilbage til forsiden. Robotterne bliver narret af den og ser ikke resten af filerne i biblioteket :-) .... dertil har jeg puttet små filer ind imellem de rigtige filer med navne der lægger sig opad de rigtige filnavne, derved skal robotterne der downloader fra forsiden vente længe på at få filerne.

ja det er lidt rodet, men det virker for mig :-)
Avatar billede Slettet bruger
02. juli 2012 - 23:19 #18
Du lagde ud med at det var en "rigtig" bruger du ville forhindre i at kunne "se" linket til en fil. Men nu virker det som om det er crawlers du vil forhindre, fordi de ikke respekterer robots.txt. Uanset hvad, så tvivler jeg på at du har fundet den "rigtige" løsning. :)
Avatar billede gsa Nybegynder
03. juli 2012 - 18:19 #19
ja, det er også det jeg vil. mit problem er at en "rigtig" bruger kigger på linkene og ser hvor jeg har placeret mine filer, så sætter han en robot til at hente hele biblioteket ned. Dette har jeg forhindret ved ovenstående. Selvom han skulle kunne bypasse mine index.php'ere i filbibliotekerne, må robotten downloade via forsiden, hvor dan så må vente i kø for at få næste fil. Jeg har ingen problemer med dette, da det ikke vil belaste båndbredden på min side betydeligt.
Avatar billede gsa Nybegynder
09. august 2012 - 08:30 #20
lukker lige tråden :-)
Avatar billede Ny bruger Nybegynder

Din løsning...

Tilladte BB-code-tags: [b]fed[/b] [i]kursiv[/i] [u]understreget[/u] Web- og emailadresser omdannes automatisk til links. Der sættes "nofollow" på alle links.

Loading billede Opret Preview
Kategori
Vi tilbyder markedets bedste kurser inden for webudvikling

Log ind eller opret profil

Hov!

For at kunne deltage på Computerworld Eksperten skal du være logget ind.

Det er heldigvis nemt at oprette en bruger: Det tager to minutter og du kan vælge at bruge enten e-mail, Facebook eller Google som login.

Du kan også logge ind via nedenstående tjenester