Ukjente faktorer for å klatre?

Bjørn Andersen

Webmaster
ville ikke begynt å stresse for mye...bare la siden ligge som den er og bygg lenker sakte men sikkert, jevnt og trutt...min mening er at den store straffen for dupliat innhold er en myte...
 

Trancton

Medlem
Kan ikke sies for ofte!

Mulig det er deres erfaring, men vet selv, gjennom flere konkrete kunder, at duplisert innhold utvilsomt har vært tilfellet.

En kunde hadde produktsider hvor han, og noen av hans konkurrenter hadde brukt produktbeskrivelsen fra leverandørens produktsider. Dette medførte at hvert produkt hadde flere versjoner som var såpass like at Google anså disse for å være duplikater.

Det hører også med til caset at konkurrentene hadde samme plattform og løsning i bunn (samme leverandør som hadde levert konkurrerende sider) slik at kildekoden også var relativt lik.

Poenget er at det å bli filtrert for duplikater er på ingen som helst måte en myte. Kunden vår skiftet CMS, gjorde noen endringer i produkttekstene, og vips, en uke seinere var de på vei tilbake der hvor de var før de begynte å bli filtrert ut.
 

zapotek

Medlem
Min erfaring er at SVÆRT store deler av en nettsted skal være duplikat før man får en sitewide straff fra Google. At enkelte deler av et nettsdet er duplikat er jo helt naturlig. Ta f.eks. nettaviser, de krysspubliserer jo artikler fra andre aviser hele tiden.

Dessuten er det sånn at jo bedre innlenkeprofil du har, jo mer slipper du unna med.
 

Trancton

Medlem
Joda, det stemmer nok. Mange av tilfellene der hvor vi har opplevd at kunder filtreres for duplisert innhold er gjerne der hvor de bruker feil type redirects, eller ingen redirect i det hele tatt mellom f.eks. Domene.no :: Gode webløsninger: Domenenavn - webhotell - design og Domene.no :: Gode webløsninger: Domenenavn - webhotell - design og gjerne noen andre domener som f.eks. http://domene2.no og http://www.domene2.no som alle er identiske og uten bruk av redirects.

Det var ikke tilfellet i den forrige casen, der var det fordi kunden vår hadde samme CMS leverandør og utvikler som noen av konkurrentene. Dermed fikk de en liten "bonus" ved at kildekoden var veldig lik, i tillegg til tekstlig innhold. Men ja, det skal mye til for å filtreres for duplisert innhold, men det betyr ikke at det er en myte. Når man først blir filtrert ut merkes det godt. Sidene begynner å falle som en stein i SERPene og man er derfor tilsynelatende ute av indekset.

Tror ellers det er viktig at man er klar over forskjellen mellom filtrering og straff/penalty. Man blir sjeldent straffet for uplisert innhold, men langt ifra sjeldent at man filtreres for det. Filtrering medfører også "usynlighet" i søkemotorene for den/de aktuelle siden(e). Dette skjer automatisk, mens straffer og penalties ofte er en manuell handling fra Googles side og forekommer oftest som en følge av skitten/ulovlig lenkebygging, noe som krever at lenker fjernes og det blir bedt om en reinclusion (noe som kan ta måneder før ferdigbehandlet). Med filtre derimot, kommer man ofte automatisk tilbake så snart problemet er løst og nettsidene har blitt crawlet på nytt.

Unnskyld til trådstarter for å komme litt off-topic her, men ser enkelte blander kortene her litt hva angår penalty og filter :)
 
Ikkeno problem, Trancton, det er lærerikt å "høre" på. :)

Etter det jeg leser her kan det virke som om det er duplikatinnhold som er problemet mitt. Jeg er jo fortsatt i indexen, men kommer ikke opp på søk. Har endra på sitater fra andre sider, satt opp redirects osv. Får håpe det ordner seg med det.

Men en annen ting, er det noen av dere som bruker denne her?
"RewriteCond %{HTTP_HOST} ^mysite.com
RewriteRule (.*) http://www.mysite.com/$1 [R=301,L]"

Ettersom denne beskjeden kommer opp (i mitt tilfelle):
"WWW/NonWWW Header Check: FAILED
Your site is not returning a 301 redirect from www to non-www or vice versa. This means that Google may cache both versions of your site, causing sitewide duplicate content penalties [SHOW | HIDE]."
 

Trancton

Medlem
Dette trenger ikke nødvendigvis å være et problem. Du må sjekke begge domenene, både med og uten www. Den som du ikke redirecter SKal/vil gi deg denne meldingen, mens den du har lagt inn en 301 på vil ikke gi deg den meldingen da den naturligvis faktisk sender en 301 redirect :)
 

Tonny Kluften

Administrator
En kunde hadde produktsider hvor han, og noen av hans konkurrenter hadde brukt produktbeskrivelsen fra leverandørens produktsider. Dette medførte at hvert produkt hadde flere versjoner som var såpass like at Google anså disse for å være duplikater.

Ja, dette sier seg jo selv. Google er ikke interessert i å ha 10 like resultater på de 10 første plassene.
 
Driver å "spionerer" litt på konkurrentene her, og det er en ting jeg ikke helt skjønner.

Det er ei dritt-side som faktisk har passert meg i rankinga; den har 12 særdeles tynne sider og 46 linker. Sida mi har 39 sider med temmelig bra og utfyllende innhold (jada, veit at 39 sider ikke er all verden det heller) og 580 linker, en del av dem både fra sider med høy pr OG fra sider med relatert innhold.

Og nei, sida som har passert meg har ikke en eneste lenke fra relaterte sider, kun footer-linker fra et par jalla-sider uten pr. Og innholdet deres? Av de 12 sidene er det 2 artikler som er noe å snakke om, resten av sidene er null til 5 setninger, og det er alt.

Har jeg gått glipp av noe vesentlig?

Ja. Sitewide linker.
 

Trancton

Medlem
Ja. Sitewide linker.

Tviler sterkt på at site wide lenker har en såpass positiv effekt (med site wide links tenker jeg da her på eksterne site wide links). Om man leser hvilke erfaringer mange har hatt med site wide links, så er det delte meninger og erfaringer, men det er nok av de som har hatt negative erfaringer med eksterne site wide lenker, og færre av de som har positive efaringer (Site-wide links can hurt your rankings | Google Success SEO SEM Tips og
Why Would Google Ignore Site Wide Links?). Det hele er også avhengig av hvordan man har brukt site wide links på de aktuelle sidene. Få site wide links er bra, mange site wide links vil kunne være negativt da dette er typisk for link farms ol.- ref. 7 Myths and Educated Theories Behind Sitewide Links | Search Engine Journal.

Som nevnt tidligere, det er stor forskjell på interne og eksterne site wide links, samt antall site wide links på en side. Snakker man om (eksterne) site wide links som i link farms, kjøpte lenker ol. er det, ikke overraskende, utelukkende negativt, interne site wide links kan være god for PR sculpting.
 

Trancton

Medlem
Ja, dette sier seg jo selv. Google er ikke interessert i å ha 10 like resultater på de 10 første plassene.

Jepp, og det er det som ofte overrasker meg. Mange tror de har blitt straffet av Google for at de har gjort noe galt når de faller på rankingen. At de har kjøpt lenker eller annet shady opplegg, mens ofte så er det så enkelt som at det er duplikater som hindrer dem fra å rangere. Har man duplisert innhold og man ikke har den mest autoritære versjonen av innholdet, så sliter man. Da må man bare endre innholdet og krysse fingrene for at man begynner å rangere igjen. Også greit å nevne at duplisering ikke kun gjelder det brukeren ser, men også kildekoden (duplicate pages). Det er heller ingen magisk prosentgrense for hva som defineres som duplisering.

Her er noen konsekvenser av duplisert innhold ifølge Mikkel Svendsen (deMib):

- Maybe nothing ... (at least to begin with)
Very often websites with duplicate problems can “survive” for a long time –but in the end it usually hits them ...

- Degrading of duplicate pages
Pages may be moved to “supplement indexes” or generally de-ranked

- Exclusion of duplicate pages
The versions of the pages that the engines judge as being duplicate get removed

- Exclusion of entire sections of the website
If a hole section (directory, sub-domain, template-file, application) is judged to have too many duplicate URLs it may be removed entirely

- Exclusion of the entire website
If there are too many duplicate problems you may get your entire website excluded
 

kongen

kongemedlem
Når man snakker om "duplicate content" så er man redd for å få en form for straff, hvis man ikke fikk noen "straff" så ville ingen være bekymret for "dublicate content".

"Dublicate content" er Googles måte å beskrive noe som benyttes til å game serp. Hvis man f. eks. er en hotellkjede og har flere sider med stort sett samme innhold med den hensikt å game serp, så klassifiseres dette som "dublicate content", og sider vil bli de-indexert.

En side på hjemmesiden:
"Hotell i Oslo bla-bla-bla hotell i Oslo mere-bla-bla-bla-bla-bla-bla"

En annen side på hjemmesiden:
"Hotell i Stavanger bla-bla-bla-hotell i Stavanger mere-bla-bla-bla-bla-bla-bla"

Teksten på disse sidene vil være helt lik unntatt stedsnavnet. Dette er "duplicate content".

At samme innhold dukker opp på forskjellige nettsteder, som f. eks at VG.no og Dagbladet.no henter samme nyhet fra NTB, og hvor de copy-paster nyheten rett inn på nettstedet, er ikke en måte å game serp på og klassifiseres heller ikke som "duplicate content" fra Google, og disse sidene vil ikke de-indexeres.

Hvem av Dagbladet og VG som kommer første i serp avgjøres av helt vanlige seo-regler som innlenker, autoritet osv.
 
Topp