Men se på det fra brugernes side... Hvad ville du helst have? En tilfældig der havde skrevet noget på nettet, som ingen rigtigt anbefaler eller én som mange anbefaler, som har skrevet noget om samme emne på nettet? Der kommer Google ihvertfald ind.
Og i forbindelse med Big Daddy update kommer den opdaterede algoritme også ind på vigtigheden af disse henvisninger (læs: links). Tror at der vil blive lagt mere vægt på relevansen af linksene fremover... men det kan du læse mere om på min blog her.
/Marcel Fuursted
Heydesk - kontorlokaler og mødelokaler over hele verdenen
>>Men se på det fra brugernes side... Hvad ville du helst have? En tilfældig der havde skrevet noget på nettet, som ingen rigtigt anbefaler eller én som mange anbefaler, som har skrevet noget om samme emne på nettet? Der kommer Google ihvertfald ind.
Jeg er meget enig her Marcel. Godt eksempel :-)
>>Og i forbindelse med Big Daddy update kommer den opdaterede algoritme også ind på vigtigheden af disse henvisninger (læs: links). Tror at der vil blive lagt mere vægt på relevansen af linksene fremover... Ja jeg læste om det tidligere i dag, tror det var på deMibs blog.
Gentager lige et spørgsmål, jeg ikke har fundet svar på; crawler MSN bedre gennem dynamiske websites end Google ??? - eller er det noget fis?
Jeg synes det er interessant at du "tør" sætte procentsatser på og det kan naturligvis være med til at gøre tingene letforståelige.
Jeg mener dog at du med dine procentsatser forsimpler de ting som søgemaskineren vægter og jeg er langt fra enig i dine procentfordelinger - men det kan vi jo diskutere fra nu af og til juleaften
Personligt vil jeg lige indskyde at begrebet indhold dækker over mange ting og hvis jeg skulle sætte procenter på i.f.t Google ville jeg give flere procenter til indholdet - hvis det er bygget rigtigt op flytter det bjerge... men et godt link er heller ikke af vejen.
MEN der er en ting der skal med i procentsatserne og det er aktualitet - jeg har kørt nogen minisites tests for en af mine kunder - med enslydende indhold /domænenavn links m.m.- og her viser der sig overordentligt gode placeringer så snart hjemmesiden er opdateret (rettet småord ikke reelt på indholdet) og jeg har flere kunder hvor vi er ude og overhale konkurrenterne fordi siderne opdateres hele tiden / og det er på trods af færre backlinks og en mindre pagerank o.s.v
Så mine pointe er at søgemaskinerne har skruet op for "point" til sider der er opdateret.
> crawler MSN bedre gennem dynamiske websites end Google ???
Nej, det kan man ike sige. De crawler noget mere aggressivt end Google for tiden, og har færre filtreringer i forhold til hvilke sider de besøger - men det roder dem til gengæld også ud i flere problemer.
Dynamiske sider i sig selv, vil jeg dog gerne understrege, er IKKE noget problem i sig selv. Søgemaskinerne er ligeglade med om du gemmer dit indhold i en database eller en flad tekstfil. Det er alene den måde du publicerer dit statistike eller dynamiske materiale på der spiller ind.
Jeg synes det er interessant at du ''tør'' sætte procentsatser på og det kan naturligvis være med til at gøre tingene letforståelige.
Jeg mener dog at du med dine procentsatser forsimpler de ting som søgemaskineren vægter og jeg er langt fra enig i dine procentfordelinger - men det kan vi jo diskutere fra nu af og til juleaften
Så afgjort, kan vi da det... Og der er ingen tvivl om at det er meget forsimplet, da mange andre faktorer vægtes samtidig. Personligt vægter jeg dog Content, som tekstinhold, men også opdatering af indholdet... Tror også jeg skal sige, at det ikke er min kommentar det med søgemaskinerne, men én af de gæve gutter fra search engine watch... Tag den op med ham hehe ;-) Jeg er bare enig i hans iagttagelser...
Men jeg vil så give dig ret i, at man på ingen måde skal simplificere søgemaskiner... Men i det store hele vurderer jeg også at de forskellige søgemaskiner har forskellige procentgrader af vigtigheden af links og indhold... Men hvis du vil tage diskussionen, så lad os da prøve... Kan jo være vi finder ud af noget... Eller at nogle af aminoerne gør
/Marcel Fuursted
Heydesk - kontorlokaler og mødelokaler over hele verdenen
Jamen er der dog overhovedet nogen, der kan sætte procenfordeling på? Det beror vel på vore erfaringer hver især - naturligvis implicit de metoder vi har anvendt i arbejdet? Hvorvidt link tæller så og så meget i forhold til content ved den enkelte søgemask., er vel også under konstant udvikling, tænker jeg.
>> Nej, det kan man ike sige. De crawler noget mere aggressivt end Google for tiden, og har færre filtreringer i forhold til hvilke sider de besøger - men det roder dem til gengæld også ud i flere problemer.
Aha, det forklarer jo meget godt, at MSN er hurtige til at få flest sider indekseret.
Nej, man kan ikke sætte en præcis procentfordeling på, da jeg tvivler stærkt på, at der er nogen herinde der kender de nøjagtige algoritmer for de forskellige søgemaskiner... Man kan dog vurdere det udfra forskellige tests. Og alligevel skal man passe på. Laver man to sider med samme indhold for at vurdere dem hver især, kan du ramme ind i at blive fanget i et mirrorsite... Og så vil søgemaskinen automatisk vægte den ene højere end den anden (eller den anden LAVERE end den første), uden du ved hvad årsagen til dette er...
/Marcel Fuursted
Heydesk - kontorlokaler og mødelokaler over hele verdenen