Suchmaschinen-Tipps von der SEMSEO 2010

semseo-konferenz-in-hannoverBereits zum vierten Mal fand am Freitag die SEMSEO in Hannover statt. Wir vom Shopbetreiber-Blog hatten wieder die Gelegenheit, bei der Konferenz für Suchmaschinen-Marketing dabei zu sein. Nahmhafte Experten der Branche waren vor Ort und sorgten für eine Reihe von spannenden Vorträgen.

Erfahren Sie, welche Suchmaschinentipps Sie noch heute anwenden sollten!

Pünktlich um 9:30 begrüßte Alan Webb von Abakus Internetmarketing die Teilnehmer und gab den Startschuss für eine Reihe von spannenden Vorträgen und Diskussionen, die wir an dieser Stelle für Shopbetreiber mit SEO-Vorwissen zusammengefasst haben.

Mobile Search

Los ging es mit Pelle Boese, der einen Vortrag zu Mobile Search und Mobile SEO hielt. Bereits heute rufen zwischen 1% und 10% der Nutzer eine Seite mit ihrem mobilen Endgerät auf. Mobile Seiten müssen daher auch auf die Besonderheiten von Smartphones angepasst werden, da die Voraussetzungen im Bezug auf Auflösung, Navigation und unterstützte Techniken im Vergleich zum Desktop völlig unterschiedlich sind.

Mir erscheint der genannte Prozentsatz deutlich zu hoch. Das ändert aber nichts daran, dass man durch eine mobile Webseite Frühaufstehervorteile (“First Mover”) sichert und der zusätzliche Aufwand im Rahmen bleibt. Für Shopsysteme oder Blogs gibt es beispielsweise fertige Erweiterungen, um die Seite fit für mobile zu machen.

Interessant werden mobile Seiten vor allem aus SEO-Sicht, da Google bereits einen mobilen Suchindex verwendet und die Maßnahmen für eine gut gelistete mobile Seite sehr überschaubar sind. Wer bereits eine starke Hauptdomain besitzt, braucht im Idealfall nur eine User-Agent-Weiche für mobile Endgeräte und den Google Mobile Cralwer einzurichten. Content, URL-Struktur sowie interne Verlinkungen können belassen werden.  Auf diese Weise genießen beide Version jeweils den vollen Link-Juice.

Wenn die gleiche URL nicht möglich ist, kann man notfalls auf eine Subdomain ausweichen, wobei Google hier theoretisch keine Probleme mit Duplicate Content haben sollte. Keinesfalls sollte man die mobile Seite auf www.domain.mobi betreiben.

Link Building & Reputationsmanagement

Weiter ging es mit Prof. Dr. Mario Fischer, der über die Besonderheiten beim Link Building und Reputationsmanagement sprach. Er begannt mit einigen Basic, die jeder Webseitenbetreiber verinnerlichen sollte und vielleicht schon aus dem Buch Website Boosting kennt.

Den internen Linkfluss prüfen, um die wichtigen, eigenen Seiten mit möglichst viel PageRank auszustatten. Dazu gehören crawlbare Links und Querverlinkungen – möglichst aus dem Text heraus. Seiten, die nur in der Sitemap stehen und nicht durch den Cralwer erreichbar sind, bringen dagegen höchstens im Longtail etwas.

Regelmäßig die Seite auf 404-Fehler prüfen und reparieren oder umleiten. Das gilt auch für eingehende Links.

Nie die URL-Struktur ändern (“Cool URIs don’t change”). Bei dem Update des Shopsystems, dem Wechsel der Agentur oder einer anderen IT-Infrastruktur sollten die möglichen Auswirkungen geprüft werden, weil die Sichtbarkeit in den Suchmaschinen sonst womöglich deutlich leidet und sich erst langsam erholt.

Duplicate Content verhindern, aber richtig: “noindex, dofollow”

Nach den “Onpage-Hausaufgaben” ging es um den Linkaufbau. Hier ist Vorsicht geboten. Wer zu schnell oder schmutzig (Black Hat) agiert, fängt sich als Dank häufig eine Einstufung als Spammer ein. Viele Links von der gleichen IP sind beispielsweise ein Indikator dafür, da ein hoher Verwandtheitsgrad (“Degree of Dependence”) unter den Domains besteht. Auf die reine Masse der Links komme es daher nicht an.

Wichtig seien dagegen der Linktext, der Trust der verlinkenden Domain (Ein Trust-Link je Domain ist ausreichend), die Relevanz der Seite und vor allem Natürlichkeit. Wenn plötzlich dutzende gekaufte Links wegbrechen und der Verkäufer an der gleichen Stelle sofort andere Links einsetzt, wird Google das nicht übersehen. Es ist dagegen natürlich, wenn man auch nofollow-Links bekommt, sinnlose Ankertext (“hier”, “www.domain.de”, “guckst du”) hat und wenigstens 50% der eingehenden Links auf die Startseite gehen.

Als nächstes gab es ein paar Beispiele, um an Links zu gelangen. Bei den gängigen Seiten wie youtube, LinkedIn oder mySpace ist für jeden was dabei. Passen dazu: Getting links form the Top-50-Domains.  Damit solche Links nicht als reiner Kommentar-Spam angesehen werden, ist es wichtig, ein “Teil der Community” zu werden und selbst etwas beizusteuern. Das gilt insbesondere für Facebook oder Twitter. Reines Hard Selling funktioniert dort definitiv nicht.

Beim Linkaufbau soll man vor allem kreativ sein, was erfolgreiche Linkbaits immer wieder zeigen. Einige Beispiele:

Google-Suche nach site:.edu “post a comment” bringt eine Liste von “begehrten” edu-Webseiten mit Kommentarfunktion, um dort einen Link zu platzieren.

Nach ungeschützten Log-Files suchen und dann eine Referrer-Auswertung starten.

Weniger kreativ, aber dafür nicht weniger effektiv ist übrigens der Telefonhörer. Man sollte regelmäßig schauen, wer für “seine” Keywords in den SERPs vorne steht. Das müssen nicht immer SEOs sein. Es kann sich auch um starke alte Seiten mit gutem Content handeln, die auf natürliche Weise dort ranken. Nach einem Link fragen kostet nichts. Problematisch wird es laut Mario Fischer, wenn der zuvor ahnungslose Webseitenbetreiber aus Gier plötzlich zum Linkverkäufer wird und man letztlich einen Link aus Bad Neighborhood hat.

Nach dem äußerst unerhaltsamen und informativen Vortrag hat Mario Fischer eine Neuerung bekanntgegeben und zugleich die virale Kraft von Twitter genutzt: Neben dem bekannten Buch Website Boosting gibt es bald eine regelmäßig erscheinende Zeitschrift, die unter www.websiteboosting.com abonniert werden kann.

mario_fischer_website_boosting2

Suchreichweiten – SEO Diver

Als nächstes sprach Uwe Tippmann über Suchreichweiten. Es gibt bereits zahlreiche Tools, mit denen man den Anteil an Personen messen kann, die durch eine Webseite erreicht werden können. Für die Ermittlung solcher Kennzahlen gibt es einen theoretischen  und einen praktischen Ansatz.

Bei der theoretischen Methode existiert eine vordefinierte Keywordliste, für die regelmäßig die SERPs abgefragt werden. Durch die Verknüpfung von Keyword-Liste,  Suchhäufigkeit und Ranking mit einer “geheimen” Formel ergibt sich eine Kennzahl (z.B. der “Sichtbarkeitsindex”), der im Zeitverlauf oder im Vergleich  zur Konkurrenz zu wichtigen Aussagen führt.

Bei diesem Ansatz gibt es einige Grenzen. Die Keyword-Listen sind limitiert, sodass es Probleme bei der Abbildung des Longtail-Effekts geben kann. Die Suchhäufigkeit und das User-Verhalten (z. B. Klick auf Seite 2) muss geschätzt werden. Außerdem gibt es einen gewissen Fake-Traffic, der durch die Abfragen der Keyword-Listen selbst generiert wird.

Die praktische Methode aggregiert Daten aus einem hinreichend großen User Panel. Die Search Strings sind natürlich, ebenso wie das Verhalten (Click-Tracking) der User.

Im Anschluss stellte Uwe ein neues Produkt von ABAKUS vor: den SEO-Diver. Das momentan in der Alpha-Phase befindliche Tool setzt auf die praktischen Methode mit einem internationalen User-Panel. Weitere Details zum Panel wurden nicht bekanntgegeben. In ca. 10 Wochen startet der neue Service.

Im Test mit koeln.de zeigte der Service mit bereits 39 Millionen Keywords schon sehr brauchbare Ergebnisse. Interessant wäre meiner Meinung nach eine Liste mit domainunabhängigen Trends wie es sie bereits auf trends.abakus-internet-marketing.de gibt.

Wie ticken Suchmaschinen?

Platzhirsch Google und Hauptsponsor Bing waren ebenfalls auf der SEMSEO vertreten und  stellten mit John Müller (Google) und Andreas Bode (Bing) jeweils einen Referenten, um das Innenleben der Suchmaschinen ein wenig zu verdeutlichen.

John stellte dazu vereinfacht vor, wie der Prozess vom Crawling bis zum Indexing läuft. Dabei plant der Scheduler zunächst die Robot-Zugriffe auf eine Seite, bevor der Crawler sie herunterlädt und der Parser die Webseite zerlegt. Der Indexer sorgt schließlich für die Indizierung des Inhalts.

Wenn Seiten nicht indiziert werden, kann dies an dem beabsichtigten (robots.txt) oder unbeabsichtigten (Erreichbarkeit) Ausschluss des Robots liegen. In den meisten Fällen liegt es aber an der fehlenden Geduld des Webmasters. 😉 Im Sinne der Relevanz von Suchergebnissen wird Spam und Duplicate Content in der Regel auch ausgeschlossen.

Die Relevanz ist für Andreas Bode von Bing ebenso von Bedeutung. Da nur jede vierte Suche erfolgreich ist und 42% der Suchen modifiziert werden, möchte Microsoft die Qualität der Suchergebnissen weiter verbessern.

Anschließend gab es eine rege Diskussion zu Qualität der Suchergebnisse und der Hoffnung, möglichst detallierte Informationen aus erster Hand zu Rankingfaktoren (Aktualität, Domainalter) zu erhalten. 😉

SEO organisieren

Für Jens Fauldrath (Inhouse SEO der Deutschen Telekom) ist SEO ein ganzheitliches Thema, das beim Telekom-Portal in Teilbereiche unterteilt wird:

  • IT-Infrastruktur (Rewriting, Domaing Management, HTML-Optimierung, Geschwindigkeit)
  • Informations-Architektur (Keywordidentitifkation, Landingpage-Design, Vernetzung, URL-Aufbau)
  • Content (“Gute Inhalte”, Redakteure verwenden Schablonen, um Keywords z. B. in Titel und Überschriften einzustreuen)

Interessant ist der Blick auf die Produktentwicklung, da es sowohl eine Produkt- als auch eine SEO-Loop gibt und SEO als Teil der Konzeption verstanden werden soll.

Mit einigen Beispielen zu Event-SEO rundet Jens den Vortrag ab. So sei es möglich, nach entsprechend sorgfältiger Vorarbeit (Beispiel: 14 Monate Vorlaufzeit für Vancouver 2010) Links aus relevanten Bereichen zeitgesteuert auf diesen Artikel zu schalten.

Schließlich gab es noch einen Blick auf das hauseigene Keyword-Tool, das sicherlich ein wenig neidisch macht.

Latent Semantische Optimierung

Nach der Mittagspause stellte Matthias Schneider von semager.de in einem eher technisch gehaltenen Vortrag die Latent Semantische Optimierung (LSO) vor. Es existieren  sowohl theoretische als auch praktische Methoden, Synonyme zu ermitteln.

Beim Social Tagging werden von Menschen erzeugte Stichwörter verwendet, wodurch eine hohe Genauigkeit erreicht wird.

Beim Clustern und HAL (Hyperspace Analogue to Language) geschieht die Analyse sehr viel mathematischer, indem u.a. über eine Matrix die Nähe eines Worts zu einem anderen bestimmt wird.

Die Funktionsweise von LSI (Latent Semantic Indexing) kann am Beispiel “Golf” gezeigt werden. Durch die verschiedenen Bedeutungen (Automarke, Sportart, Meeresstrom) sind Webseiten möglicherweise unterschiedlich stark verwandt. In der Praxis kann man die automatische Sortierung (LSI) in Google News sehen. Dort werden “alle Artikel” zu einer News angezeigt.

latent-semantic-indexing

Black Hat SEM

Spannend und kreativ wurde es in Tim Ringels Serienverstoß gegen die Google-Richtlinien. Daher sind folgende Tipps nicht zur Nachahmung empfohlen. Sie helfen jedoch, sich selbst vor Missbrauch zu schützen.

Beim Weekend Bidding bieten Affiliates auf Markenbegriffe und nutzen aus, dass manuelle Prüfungen von Google nicht am Wochenende durchgeführt werden. Die Kampagne kann auf diese Weise über das Wochenende laufen.

Beim Double Bidding und Tripple Bidding werden mehreren Anzeigen für die gleiche Marke eingebucht. Damit Google dies nicht erkennt, verwendet man unterschiedliche URLs. Der Werbetreibende verdrängt dadurch Mitbewerber.

Ad Hijacking: Man erstellt in AdWords eine 1:1-Kopie von einer anderen Anzeige und bietet mehr als der ursprüngliche Bieter. Dadurch kann eine Anzeige automatisch als Mutter-Kampagne erkannt werden, sodass sie häufiger ausgeliefert wird.

Während sich ein SEO bei eingehenden Textlinks sehr freut, sind für den SEM die Site-Links in AdWords das persönliche Highlight. Damit Google Site-Links anzeigt, müssen die Klickraten ca. 10% höher als die der Mitbewerber sein. Um dies zu erreichen, gibt es mehrere Möglichkeiten. Man kann beispielsweise die eigenen Anzeigen anklicken oder extreme Nischen-Keywords in die gleiche Werbekampagne hinzufügen.

Brand Bidding auf fremde Marken sind schon seit einiger Zeit vor allem ein rechtliches Thema, sodass Google das Einbuchen von Marken normalerweise blockiert. Wenn man nun mit der Advanced-Broad-Match-Option auf  “A Mobile” bucht und anschließend alle Zeichen außer dem T exkludiert, ist der Markenschutz umgangen.

Hohe Klickraten auf Anzeigen führen zu niedrigen Preisen, sodass man durch eingestreute ASCII-Zeichen (?, ?, » etc.) in der Anzeige versuchen kann, den CTR zu erhöhen.

Schließlich berichtete Tim, dass man über die Google-Produktsuche theoretisch ein Cookie beim Suchenden setzen kann, wenn die angezeigten Produktbilder direkt vom ursprünglichen Server geladen werden. Das Ergebnis: PostView in Search, wodurch der Werbende Einnahmen erzielt, obwohl seine Werbeanzeigen gar nicht geklickt werden.

Podiumsdiskussion

Nach den Vorträgen gab es eine Podiumsdiskussion mit John Müller, Mario Fischer, Marcus Tandler und Uwe Tippmann zu aktuellen Themen.

Personal Search

Hier herrschte die einstimmige Meinung, dass es sich um eine sehr sinnvolle Entwicklung handelt. Gut für den Nutzer und Marcus freut sich über alles, was die Sache für SEOs anspruchsvoller macht.

Brand Update

Am Beispiel von staples.com zeigt Marcus, welche Auswirkungen das Brand-Update haben kann. Wurde staples bei der Suche nach Büromaterial in den USA zuvor so gut wie gar nicht gefunden, tauchen sie nun vorne in den SERPs auf. Zur technischen Funktionsweise gibt es einige plausiblen Vermutungen. Zum einen kann Google die Daten aus verfeinerten Suchen (erst nach “Router”, dann nach “Netgear Router”) gewinnen, zum anderen mithilfe der Search Terms (“o2 handy”) selbst.

Einigkeit herrscht darüber, dass bei Google niemand manuell bestimmte Marken einbucht. Uwe hat jedoch im Hinblick auf den begrenzten Platz auf Seite 1 die Befürchtung, dass sehr ähnliche Marken trotzdem sehr unterschiedlich dargestellt werden könnten und spricht sich aus Spaß für eine “Brand-One-Box” aus.

Datenschutz und Google

Schließlich geht es um das Thema Datenschutz. Während früher Microsoft ein “böses” Image hatte, ist Google heute an der Reihe. Für Mario Fischer sind Daten bei Google dagegen sicherer als auf der eigenen Festplatte.  Ein Problem sei auch die Berichterstattung, da sich “Bad News” eben besser verkauften.

SEO-Klinik

Bevor es zur PubCon ging, hatten Shopetreiber und Webmaster wieder die Gelegenheit, ihre Projekte einmal von Experten beleuchten zu lassen und sich wertvolle Tipps abzuholen.

Der Shop L´axelle Achselpads hatte beispielsweise das Problem, dass das Suchvolumen für “Achselpads” noch vergleichsweise gering ist, da sich das Produkt noch nicht als Lösung für dieses  Problem etabliert hat. Während Nutzer heute zwar nach Winterreifen suchen, wird im obigen Fall eher nach dem Problem (“Achselschweiß”) gesucht. Dementsprechend sollten SEO- und SEM-Maßnahmen sich auch an diesen Schlüsselwörtern orientieren.

Fazit

Die diesjährige Konferenz überzeugte wieder auf ganzer Linie und macht die SEMSEO zu einem Pflichtermin für jeden ernsthaften Suchmaschinenoptimierer. Ein tolles Ambiente, hochrangige Experten und genügend Raum fürs Networking, nicht zuletzt wegen der anschließenden PubCon, die bereits zum siebten Mal statt fand.

Rouven Balci von seo.at hat sich die Mühe gemacht, jeden Vortrag bis ins Detail zu bloggen. Ein Muss für jeden, der nicht bei der SEMSEO da sein konnte oder das eine oder ander noch einmal nachlesen möchte. Weitere Recaps der Veranstaltung gibt es auf seo.de, seonauten.com, seokratie.de und den netzagenten.

Die Karten für die Konferenz zu Search Engine Marketing (SEM) und Search Engine Optimization (SEO) waren übrigens bereits einen Monat vor der Veranstaltung vergriffen. Im nächsten Jahr wird die SEMSEO daher voraussichtlich in einem größeren Rahmen stattfinden. Bis dann!