Avatar billede steenolsen1 Nybegynder
07. september 2008 - 11:08 Der er 6 kommentarer og
1 løsning

Backlinks og duplicate content

Hej,

Vi vil gerne benytte artikler fra andre websites på vores eget site og har også fået lov til dette af partnerne.

Før vi indsætter artiklerne, så vil jeg dog gerne lige have afklaret problematikken omkring duplicate content og backlinks.

- Er det korrekt opfattet at man godt kan indsætte 100% identisk content på sit website, hvis man blot linker tilbage til oprindelsesdokumentet på partnerens site?
- Skal content "justeres"?
- Skal backlink gå til artiklen på partnerens website, eller blot til domænet?

På forhånd tak :-)
Steen
Avatar billede bufferzone Praktikant
07. september 2008 - 12:21 #1
Først skal du vide at der er mange forskellige opfattelser af hvad der er rigtigt og forkert og mig bekendt meget lidt fakta og beviser for noget af det, heller ikke mine fornemmelser.

Som jeg ser det, bliver hverken du eller det oprindelige web site straffet for dublicated content, men i den udstrækning søgemaskinen kan afgøre hvilket site der er det oprindelige site, vil den der dublikerer heller ikke få ret meget ud af det indhold. Du vil med andre ord ikke opleve at de sider du får fra et andet site, bliver placeret højere oppe af søgemaskinens resultatside end originalen og formodentligt vil dit duplikerede indhold slet ikke vises på resultatsiderne.

Mht backlinks, er det selvfølgelig det etisk korrekte at gøre, hvilken effekt det har for dig ved jeg ikke, men det hjælper orginalsitet
Avatar billede steenolsen1 Nybegynder
07. september 2008 - 15:14 #2
Ok. Jeg ser lige om der kommer andre input også, netop fordi jeg også har hørt forskellige varianter af hvad der er rigtigt og forkert.

Konklusionen ud fra ovenstående må vel i øvrigt være, at hvis man kan afse ressourcer til det, kan man omskrive artiklerne, så de ser "nye ud" for at få full credit, men fortsat linke tilbage og derved "score" på at hjælpe brugeren videre i form af eksterne links til relateret content.
Avatar billede sobr Nybegynder
07. september 2008 - 21:40 #3
Man blir straffet for duplicate content !!!

Sidste forår lagde jeg en hjemmeside (bekendt-1.dk) på nettet for en bekendt, som efter kort tid lå ret pænt i google's søgeresultater - siden indeholdt bl.a. et par pdf-filer. Desværre blev min bekendt syg og ingen vidste, hvor lang tid det ville strække sig over. Enden blev at hjemmesiden blev taget af nettet igen (hjemmesiden var en lille netbutik).

Her i foråret følte min bekendt sig igen så frisk, at hun turde tage fat påny.
Jeg var i tvivl om, hvor let/svært det ville være at få den samme hjemmeside (bekendt-1.dk) op på samme placering, når den havde været pillet af nettet.

Derfor købte min bekendt sig et nyt domænenavn (bekendt-2.dk) - og forsøgte sig igen.
Duplicate content var i tankerne, ved oprettelsen af den nye hjemmeside.

Det gik faktisk strygende - på et tidspunkt blev vi enige om, at prøve at lægge den gamle hjemmeside (bekendt-1.dk) ind igen. En overgang lå de næsten side om side, på side 2 på google - egentlig et pænt stykke tid - hvorefter den gamle (bekendt-1.dk) pludselig forsvandt.

Vi fandt den helt omme på side 42 - og fattede ikke en brik - til at starte med - for efter at have gennemgået bufferzone's gode sider, gik det op for mig, at det vist nok ikke var så heldig, at have de samme pdf-filer liggende på begge domæner.

Efter at have fjernet dem fra den gamle hjemmeside (bekendt-1.dk), gik der en rum tid, før der begyndte at ske noget igen.

Så ingen skal komme og sige, at man ikke bliver straffet for duplicate content - det var bare så tydeligt her.
Avatar billede sobr Nybegynder
07. september 2008 - 21:49 #4
... jeg glemte lige at tilføje, at vi ikke gjorde andet, end at fjerne de pdf-filer !
Avatar billede erikjacobsen Ekspert
07. september 2008 - 21:54 #5
Det siges at ham her ved noget om det:  http://www.mattcutts.com/blog/duplicate-content-question/
Avatar billede bufferzone Praktikant
07. september 2008 - 22:05 #6
Det der er problemet er at google og andre søgemaskiner jo ikke ønsker at give deres brugere (dem der søger efter indhold) de samme sider for en søgning. Omvendt ønsker google og andre heller ikke at give tvivlsomme personer mulighed for at straffe andre sites de konkurrere med ved at kopiere deres indhold og så fo de andres sider pillet af.

Det der giver problemerne er når google har problemer med at afgøre hvilket site der er det orginale site og dermed at afgøre hvem der skal ranke for indholdet.

Duplicate content problematikken er svær at håndterer både for søgemaskinerne og os andre. Det bedste er at lave sit eget indhold og bruger man andres indhold, så brug det i rammen af eget indhold eller gør med teksten opmærksom på at det er kopieret med tilladelse og hvorfra det er kopiert.

Der er f.eks. flere sites der har fået lov til at kopiere mine artikler og det har jeg ingen problemer haft med
Avatar billede steenolsen1 Nybegynder
08. september 2008 - 11:54 #7
Tak for jeres input!
Jeg tror at konklusionen er, at vi justerer teksten og i øvrigt angiver kilden fortsat. Det kræver godt nok en manuel behandling, men så længe omfanget ikke vil være større end det vi står overfor er det fint nok.
Avatar billede Ny bruger Nybegynder

Din løsning...

Tilladte BB-code-tags: [b]fed[/b] [i]kursiv[/i] [u]understreget[/u] Web- og emailadresser omdannes automatisk til links. Der sættes "nofollow" på alle links.

Loading billede Opret Preview
Kategori
IT-kurser om Microsoft 365, sikkerhed, personlig vækst, udvikling, digital markedsføring, grafisk design, SAP og forretningsanalyse.

Log ind eller opret profil

Hov!

For at kunne deltage på Computerworld Eksperten skal du være logget ind.

Det er heldigvis nemt at oprette en bruger: Det tager to minutter og du kan vælge at bruge enten e-mail, Facebook eller Google som login.

Du kan også logge ind via nedenstående tjenester