Hej Thomas Hvad anbefaler du da i stedet? Hvis man linker til duplicate content og derefter udelukker det fra indeksering med robots.txt, så sender man PageRank / linkjuice til sider som aldrig kan findes i søgemaskinerne. Kun ved at undlade at linke til DC kan man undgå at spilde PageRank (undtaget hvis man bruger rel="canonical" tagget) Robots.txt bør kun være en nødløsning til at fjerne DC. Mvh Jesper |
Jamen Jesper... Du skriver, at den bedste måde at undgå DC er ved at lade være med at linke til det. Det er da noget sludder - jeg kan ikke sige det pænere. Den bedste måde er at undgå, at det opstår - og det ved at bygge systemet, så det ikke er muligt.
Da du ikke er alene på internettet, kan du jo ikke kontrollere, om andre linker til det, der er DC på dit site - og derfor er du nødt til at sikre dig, at du enten har et system, der ikke KAN generere DC - eller at det ikke kan indekseres - eller at der 301 redirectes fra det til den canonicale URL.