Immer wieder wird selbst unter Spezialisten diskutiert, was auf die Google-Platzierung der Suchergebnisse maßgeblichen Einfluss hat. In diese endlosen Diskussion ist durch eine aktuelle Auswertung von SEOmoz jetzt etwas mehr Klarheit gekommen – zumindest erfährt man, was bei 37 internationalen Suchmaschinen-Experten ganz oben auf der Liste steht.
Die positiven Top-Faktoren für das Google Ranking:
- Keyword Use in Title Tag (4.9)
- Global Link Popularity of Site (4.5)
- Anchor Text of Inbound Link (4.4)
- Link Popularity within the Site’s Internal Link Structure (4.1)
- Age of Site (4)
- Topical Relevance of Inbound Links to Site (3.9)
- Link Popularity of Site in Topical Community (3.9)
- Keyword Use in Body Text (3.9)
- Global Link Popularity of Linking Site (3.7)
- Topical Relationship of Linking Page (3.6)
Die negativen Top-Faktoren für das Google Ranking:
- Server is Often Inaccessible to Bots
- Content Very Similar or Duplicate of Existing Content in the Index
- External Links to Low Quality/Spam Sites
- Duplicate Title/Meta Tags on Many Pages
- Participation in Link Schemes or Actively Selling Links
- Overuse of Targeted Keywords (Stuffing/Spamming)
- Very Slow Server Response Times
- Inbound Links from Spam Sites
- Low Levels of Visitors to the Site (Measured via Toolbar, Clicks in SERPs, etc.)
Im Vergleich zur 2005-er Umfrage hat sich am meisten bei der Expertenmeinung zur “Global Link Popularity” geändert:
The biggest mover is clearly “Global Link Popularity” – which fits very well with evidence we’ve seen of sites like Wikipedia and other authorities dominating the SERPs.
Ich bezweifle das man letztendlich mit diesen “Hypewords” etwas anfangen kann, mehr ist es nämlich nicht.
Die Gewichtung ist der absolut entscheidende Faktor, und da hat jeder sein eigenes Rezept.
Das Problem ist das echte Webseiten keine vorgefertigten optimalen Faktoren haben, beispielsweise ein genaues Verhältnis von Keywords/Textmaterial etc..
Damit würden Seiten bei denen so ein Faktor auftritt sehr leicht als optimiert zu enttarnen sein.
Letztendlich wird irgendwann das Suchverhalten der Menschen draussen dafür sorgen das die Suchanfragen dermaßen spezifisch werden das nur Seiten die passenden Inhalt haben gefunden werden. Phrasensuchen lassen sich nunmal schlecht optimieren, und einzelne Wörter zu suchen führt heutzutage schon zu immer unangenehmeren Suchmaschinenspam.
Letztendlich muss man also tatsächlich qualitativ anständigen Content bieten, dafür sorgen das keine unnötigen technischen Indexierungshürden bestehen und die Seite kommt von ganz allein in die Trefferlisten.