Hmm der var jeg vist lidt for hurtigt ude med det tool, der er forskel på det indhold, som returneres tilbage fra siden man tester, alt efter om man bruger Internet Explorer eller FireFox. Er der flere der gerne vil bekræfte dette for mig? Hvis man bruger toolet i InternetExplorer, henter toolet så alt indholdet fra den side der testes, ligesom hvis man tilgår siden direkte i en browser? Hvis man bruger toolet i FireFox, henter toolet så alt en begrænset del af indholdet fra den side der testes, set i forhold til hvis man tilgår siden direkte i en browser? Mon der "siver" information fra brugerens browser igennem testside-scriptet/webserveren hen til den side som testes? Scriptet eksekveres jo fra en browser/webserver, og ikke som eksempelvis som et cronjob. Hmm det må jeg få testet... På forhånd tak for hjælpen. /Grosen |
Sebastian Brandes:Okay. Jeg har ikke erfaring med at udvikle så store communities som Amino. Jeg synes bare, at det er mange penge, når man kan gøre brug af så meget software, der ligger gratis derude.
Præcis og jeg er 100% enig - men faktum er nu engang, at Martin har ført det her til en succes og så kan man jo kun forvente at han har haft en tanke bag alt han har gjort. At CS udvikler sig i den forkerte retning er svært at vide på forhånd.
De fejl Community Server har, KAN håndteres hvis bare de (CS-teamet) gider tage sig sammen :)
- Meta-tagget, robots burde slet ikke være der fra starten. Du kan måske få det på som en ekstra ting, hvis du virkelig ikke ønsker at indekseres af søgemaskinerne. Der er absolut ingen grund til at bruge den med mindre du ikke ønsker Google skal indeksere eller følge undersiderne.
- Der skabes dublicate content med to forskellige former for URL'er (to indgange til samme side/indhold). Teoretisk set kunne Martins team bare lukke den ene af i robots.txt, men så går den anden tråd (den indekserede) bare glip af al den linkværdi den anden (udelukkede) side får. Det CS kunne gøre, hvis de ved præcist hvilke type URL'er der oprettes, var at lave et script der automatisk 301 redirecter den ene til den anden. Det burde de simpelthen vide, hvordan de skal gøre. Det er dem der har skabt systemet, og derfor burde de også vide hvorfor URLérne ser ud som de gør og hvordan de skabes.