Endvidere har førende web design software som f.eks. XSitePro (www.xsitepro.com) som jeg personligt har brugt dagligt siden det kom frem for flere år siden - en indbygget automatisk sitemap generator.
Og til f.eks. wordpress findes der såvidt vides diverse plugins der kan lave sitemaps.
Endelig, hvis din hjemmeside er mindre end f.eks. 100 sider, så kan du jo lave det selv i html. Det er ikke spor svært.
Endvidere har førende web design software som f.eks. XSitePro (www.xsitepro.com) som jeg personligt har brugt dagligt siden det kom frem for flere år siden - en indbygget automatisk sitemap generator.
Og til f.eks. wordpress findes der såvidt vides diverse plugins der kan lave sitemaps.
Endelig, hvis din hjemmeside er mindre end f.eks. 100 sider, så kan du jo lave det selv i html. Det er ikke spor svært.
Marvin
Marvin har ganske ret når det handler om xml sitemaps (som det i 9 ud af 10 tilfælde gør når folk spørger)
Overvej muligheden for at bruge et html sitemap i stedet, da du nemt kan komme til at overse intern-linkstruktur-fejl. Et XML-sitemap er ikke en garanti for at du får alle sider indexeret, og godt placeret.
Da jeg bruger XSitePro laves sitemaps af softwaren når det een gang for alle er sat op til det.
Html sitemaps er for mennesker.
XML sitemaps er for søgerobotter og feedreaders.
Det software man mkan finde på nettet kan ofte lave begge slags sitemaps.
I øvrigt, min erfaring er, at søgemaskinernes robotter er totalt ligeglade med sitemaps. De registrerer / indekserer alt hvad de kan ud fra .htaccess filen.
Nogle af dem er sågar totalt ligeglade med .htaccess og registrerer / indekserer alt uden undtagelse ... med mindre man blokerer deres IP adresser.
I øvrigt, min erfaring er, at søgemaskinernes robotter er totalt ligeglade med sitemaps. De registrerer / indekserer alt hvad de kan ud fra .htaccess filen.
Nogle af dem er sågar totalt ligeglade med .htaccess og registrerer / indekserer alt uden undtagelse ... med mindre man blokerer deres IP adresser.
Eller medmindre man har dårlig linkstruktur -> hvilket netop er formålet med sitemaps. At vise søgemaskinerne undersider der ikke er umiddelbart er tilgængelige via den almindelige linkstruktur.
Da jeg bruger XSitePro laves sitemaps af softwaren når det een gang for alle er sat op til det.
Html sitemaps er for mennesker.
XML sitemaps er for søgerobotter og feedreaders.
Det software man mkan finde på nettet kan ofte lave begge slags sitemaps.
I øvrigt, min erfaring er, at søgemaskinernes robotter er totalt ligeglade med sitemaps. De registrerer / indekserer alt hvad de kan ud fra .htaccess filen.
Nogle af dem er sågar totalt ligeglade med .htaccess og registrerer / indekserer alt uden undtagelse ... med mindre man blokerer deres IP adresser.
Marvin
HTML er for mennesker - ja, men det er også for søgemaskiner. XML-sitemaps er ikke en lykkekur som farver alt lyserødt!
Det bedste er uanset hvad at have en ordentlig intern linkstruktur - og ikke forsøge at lappe det med et xml-sitemap... HTML sitemaps med under 100 links vil jeg næsten altid fortrække til sider der er helt nye eller ranker ok... Ranker du derimod meget skidt er der ikke meget og tabe med et xml sitemap - og derfor kunne det være værd at prøve.