Nu har jeg prøvet at grave mig igennem denne tråd, lad mig lige sammenfatte de forskellige problemer der er omtalte her og så må I meget gerne rette mig hvis jeg har misforstået noget :)
Christian iMarketing påpeger at siden "http://www.amino.dk/forums/14500.aspx" ikke har nogen Page Rank. Der er jeg lidt på bare bund, som programmør prøver jeg at skrive standardskompatibel kode og undgå "duplicate content" på de sider jeg laver fra bunden, men ved ellers ikke hvordan Google kommer frem til en sides Page Rank. Dette problem er ikke løst, men hvis det skyldes at siden er ny for Google, kan det være at der bare går lidt tid inden de giver den en Page Rank?
Grosen Friis skriver at siden "http://www.amino.dk/forums/14500.aspx" ikke er indekseret i Google pga. forkert robots-værdi. Det er den nu, efter vi ændrede meta-taggets indhold fra "noindex,follow" til "index,follow".
Mikkel deMib nævner problemet med "duplicate content", som desværre stadig er et stort problem med mange sider der genereres af CommunityServer (CS). Den indflydelse vi har på hvad CS spytter ud af HTML er selvfølgelig afhængig af, hvor meget vi ændrer på dens kode, og ændrer vi for meget eller for langt nede i koden bliver det besværligt/dyrt at opgradere, når CS lancerer et service pack eller en ny version - og det sker flere gange om året. Men vi skal helt klart have kigget på, hvor meget dette kan forbedres indenfor de rammer CS stiller til rådighed.
Grosen bemærker at de cachede versioner (http://74.125.77.132/search?hl=da&q=cache%3Ahttp%3A%2F%2Fwww.amino.dk%2Fforums%2F14500.aspx&btnG=Google-s%C3%B8gning&meta=&aq=f&oq= , http://cc.msnscache.com/cache.aspx?q=%22http+www+amino+dk+forums+14500+aspx%22&d=75342646814432&mkt=en-GB&setlang=en-GB&w=8195eb11,d1089fe6 ) mangler indhold. Det ser heldigvis ud til at være et rendering-problem, idet indholdet faktisk står i kildekoden af de cachede sider, det vises bare ikke i andre browsere end Internet Explorer. Det kunne skyldes den ekstra kode "Dette er den cachede version....." som de to søgemaskiner indsætter øverst på siden. Uanset hvad så bruger søgemaskiner jo ikke en browser til at "læse" siderne, de parser kildekoden direkte og derfor formoder jeg, at de får fat i det de skal. - Jeg har prøvet at simulere en forespørgsel til "http://www.amino.dk/forums/14500.aspx" med headeren "User-Agent: Googlebot/1.0 (googlebot@googlebot.com http://googlebot.com/)" og fik fuldstændigt det samme indhold som min browser. Det udelukker ikke, at CS bruger andre faktorer til at afgøre, om gæsten er en spider, men der er ikke umiddelbart noget i koden som tyder på det og hvorfor skulle de sende halvtomme sider til spiderne? Det giver slet ikke mening - at fucke siden op med "duplicate content" er én ting, en rimelig dum fejl som opstod fordi nogen ikke har tænkt sig om, men at de skulle gøre en ekstra indsats for at udelukke deres kunders sider fra at blive indekseret har jeg lidt svært ved at tro på.
NØJAGTIGT det samme kunne man have opnået blot ved helt at slette dette META-tag. Hvorfor overhovedet havde det når det ingen som helst mening giver?
Helt enig i at meta-tagget, som det ser ud nu, er ren og skær unødvendig ballast på siden - hvis det var så nemt som at åbne et skabelon og fjerne tagget ville jeg glædeligt gøre det. Med CS er jeg dog allerede glad over muligheden for at ændre det til en værdi, som ikke længere skader sidens indeksering! :)
Jeg må sige, at jeg da er overrasket - læs chokeret - over hvor meget der bliver brugt på vedligeholdelse af Community serveren.
Uden at vide det, er det nok ikke så mange procent af lønningerne igen, som er gået til vedligeholdelse af CS - der er en del markedsføring og mht. programmering er det meste af tiden brugt på vores børser, som heldigvis kører næsten uafhængigt.