Artikelformat

SMX München 2011 – Recap des zweiten Tages

Keynote von Stefan Weitz über die Facebook / Bing-Kooperation

Der Ballsaal war nicht wirklich voll belegt am Morgen des zweiten Konferenztages. Lag es an der Party vom Vorabend? Oder haben viele Teilnehmer einfach nichts Neues erwartet? Über die Kooperation von Facebook und Bing wurde ja bereits im vergangenen Jahr einiges berichtet und tatsächlich wurden in der Keynote keine bahnbrechenden Neuigkeiten präsentiert. Dass Bing und Google verstärkt auf Signale aus Sozialen Netzen setzen und die Beziehungen zwischen den Suchenden ins Ranking einfließen lassen wollen, das wurde schon am ersten Tag klar. Gerade bei dem Verständnis des Facebook Social Graphs dürfte Bing durch seine Kooperation mit Facebook in diesem Bereich einen Vorteil gegenüber Google haben.

Negativ- und Blackhat SEO

Zum Vortrag von Dominik Wojcik, aka @boeserseo, kam ich leider etwas zu spät, da ich mich im Aussteller-Bereich etwas verquatscht hatte. Was ich dann noch mitbekommen habe war aber beängstigend genug. Die ein oder andere Methode halb- bis illegal Linkbuilding zu betreiben ist mir auch schon untergekommen, aber in der Summierung wie Dominik das gezeigt hat wurde noch mal so richtig deutlich, wie wichtig Entwicklungsrichtlinien und Sicherheits-Audits von Websites sind. Ein kompetenter Vortrag, der aus meiner Sicht gerne noch etwas in die Tiefe hätte gehen dürfen, dazu fehlte aber leider die Zeit.

Den zweiten Teil der Session übernahm dann Fabian Rossbacher, der zunächst ein bisschen was über das Verpetzen anderer Webmaster mittels des Google Spam-Report erzählte. Dann zeigte er noch in einem Praxisbeispiel wie unschuldig eine Clickjacking-Attacke daherkommt und was man damit anstellen kann. Wie man JMeter für eine DDOS-Attacke nutzt wusste ich ja schon, damit haben wir in Lasttests auch schon versucht, unsere eigenen Server in die Knie zu zwingen.  Zum Schluss noch eine kurze Demonstration eines Tools zur Massengenerierung von Backlinks, mit welchem man ungeliebter Konkurrenz eben mal ein paar Tausend Crap-Links zuschustert.

Das war eine verdammt gute Session. Aufgrund des Themas natürlich auch sehr techniklastig und es war auch einiges an Vorwissen nötig. Ich denke jeder der beiden Speaker hätte locker eine Stunde alleine mit interessanten Themen füllen können.

Technisches SEO: HTML5

Das musste ich mir natürlich anhören, jetzt wo auch der IE9 veröffentlicht ist und der ja auch ein bisschen HTML5 kann, wird das auch interessant. Es sprachen die beiden Johannes, Johannes Müller von Google und Johannes Beus von Sistrix, auch bekannt als Lichtgestalt der SEO-Szene.

Als Fazit lässt sich sagen:

  • HTML5 ist da und kann schon verwendet werden. Allerdings gibt es gerade im IE9 noch einige Einschränkungen, die mal wieder durch Workarounds (Javascript-Frickeleien) umgangen werden können, so z.B. die Nutzung des History-Objekts.
  • Einige HTML5-Elemente irritieren ältere Browser nicht und können daher bedenkenlos schon heute eingesetzt werden, bspw. die Klassifizierung von Eingabefeldern, die auf Mobilgeräten eine komfortablere Eingabe ermöglicht.
  • Die neuen Tags zur Einteilung der Seite in Bereiche wie Header, Footer, Navigation und Artikel können auch heute schon in allen Browsern verwendet werden und werden von älteren Browsern ignoriert. Sie helfen Suchmaschinen aber, die Seitenstrultur besser zu erkennen.
  • Bei neuen Projekten sollte man HTML5 beachten und wenn es sinnvoll erscheint auch einsetzen. Aber jetzt in Panik alle bestehenden Seiten zu überarbeiten, würde sicher keinen Sinn machen.

Beide Sprecher haben einen Super-Vortrag abgeliefert, wobei Johannes Beus sich den ein oder anderen Seitenhieb in Richtung Google in Person von JohnMu nicht verkneifen konnte.

Predictive SEO

Ob der Begriff „Predictive SEO“ nun tatsächlich von Jens Fauldrath geprägt wurde oder nicht, der Vortrag dazu von seiner T-Kollegin Eva Rausch von Traubenberg war sehr detailliert und informativ. Wie man bei der Telekom auf zu erwartende Events wie eine Fußball-WM oder Olympiade gezielt hinarbeitet und die eigenen Webauftritte darauf vorbereitet fand ich sehr interessant. Hier gab es viel über die Prozesse hinter der SEO bei der T-Kom zu lernen und man konnte schon fast glauben, dass SEO beim Rosa Riesen in alle Redaktionsprozesse eingebunden ist.

Predictive SEO Präsentation auf Scribd.

Danach war Daniel Haneberg von der Süddeutschen Zeitung dran. Er demonstrierte am Beispiel Barack Obama wie die SZ schon recht früh anfängt Themenseiten aufzubauen, obwohl nach diesen Themen (oder in diesem Fall Person) noch gar nicht stark gesucht wird. Wenn das Thema dann aber plötzlich stark in den Nachrichten erwähnt wird, wie z.B. die Kandidatur Barack Obamas zur Präsidentenwahl, dann hat die SZ bereits eine Hubseite aufgebaut. Dieser gesamte Prozess wird in der SZ-Redaktion durch  entsprechende Systeme unterstützt.

Zum Schluß sprach Eric Kubitz über Predictive Linkbuilding,  obwohl Linkbuilding ein Thema ist das seine Contentmanufaktur gar nicht bearbeitet. Anhand von mehreren Beispielen konnte er immer wieder zeigen dass Googles Credo, Links bekommt man durch guten Content, auch wirklich funktioniert.

Site Architecture für SEO Profis

Eine Doppelsession in deutscher und englischer Sprache. Zunächst präsentierte Stefan Fischerländer die durch Duplicate Content verursachten Probleme bevor er auf die Wichtigkeit einer sauberen Site-Struktur hinwies, die es auch Fremden erlaubt klar zu erkennen welche Seite für welches Thema die relevanteste ist. Er erklärte die Wichtigkeit eines sauberen internen Linkaufbaus zur Stärkung der relevantesten Seiten und die Möglichkeiten durch eine facettierte Navigation mittels Kategorien und Tags. Zum Schluss  ging er noch ins Detail und zeigte Möglichkeiten, wie man aus einer MySQL-Datenbank automatisiert Tags generieren kann. Wieder ein super Vortrag von @stefanfis:

Den zweiten Teil dieser Session übernahm Ninja SEO Mikkel deMib Svendsen.Er zeigte eine nicht immer ganz einfach aufzusetzende technische Lösung des Duplicate Content Problems auf, in dem man für jede Seite die korrekte URL in einer Datenbank hinterlegt, und wenn die Seite nicht über diese URL aufgerufen wurde, dann erfolgt eine 301 Weiterleitung dorthin. Ich denke, wenn Suchmaschinen  sich korrekt verhalten sollte eine Deklaration der kanonischen URL genauso gut funktionieren. Dann zeigte Mikkel anhand einer Wikipedia-Seite wie die Definition seiteninterner Anchors in den SERPs angezeigt wird. Weiter ging es mit der Umsetzung einer mehrsprachigen Site unter einer Domain, der Wichtigkeit sich auf wenige Outbound-Links zu konzentrieren, um die Stärke der einzelnen Links nicht zu sehr zu verwässern, einer Schelte gegen die Verwendung von XML-Sitemaps für Webseiten, Bilder-SEO und der korrekten Einrichtung von Fehlerseiten. Mikkels Vortrag war ein Rundumschlag in Sachen Site-Architektur, litt aber unter der zur Verfügung stehenden Zeit.

Show me the Links

Als letzten Vortrag der SMX besuchte ich den Linkbuilding-Vortrag mit Sepita Ansari und André Alpar. Sepita sprach über aktuelle Entwicklungen im Linkbuilding und der Bewertung von Links durch Google. Trotz der starken Fokussierung auf die Signale aus Sozialen Netzwerken sind Links für Google immer noch der stärkste Faktor bei der Bewertung von Websites.

André referiert über die Ökonomie von Linkbaits und zeigte einige Schwierigkeiten und Risiken bei Linkbaits auf. Außerdem sind Baits heutzutage schwieriger aufzuziehen, weil heute mehr Leute über den Wert von Link Bescheid wissen und ausserdem interessante oder witzige Sachen eher über Facebook und Twitter geteilt werden. Allerdings haben wir auf dieser SMX ja oft genug gehört, dass die Social Media Faktoren mittlerweile einen starken Einfluss auf SEO haben und ein Like- / Tweet-Bait daher nicht verkehrt sein muss.

Fazit

Für mich war es die erste, hoffentlich aber nicht letzte, Teilnahme an der SMX. Die Mischung aus neuesten Trends und konkreten umsetzbaren Informationen sowie aus internationalen und nationalen Themen ist perfekt. An der Organisation durch Rising Media gab es auch nichts zu bemängeln, außer natürlich den zu kleinen Getränkegläsern.

Hier sollten nun eigentlich noch ganz viele Links zu anderen Recaps stehen. Aber da es schon eine sehr ausführliche Liste mit Recaps der SMX München 2011 gibt, bin ich mal faul und verlinke die einfach.

Ähnliche Beiträge:

9 Kommentare

  1. „Recap“?
    Da gibt es auch kein deutsches Wort für, oder? 😉
    Aber gut, jede Berufsgruppe hat ihre eigene Sprache, die andere bisweilen – oft ungewollt – ausgrenzt.

  2. Doch, da gäbe es bestimmt etwas. Man könnte z.B. Rekapitulation schreiben, oder Zusammenfassung wie ich es im Titel für den ersten Tag getan habe. Man könnte auch alle nicht-deutschen Begriffe in diesem Artikel übersetzen. Dann würde man aber vermutlich noch mehr Menschen ausschließen, nämlich zusätzlich noch die der Online-Marketer (dt.: angeschlossene Absatzfachleute).

  3. @Frank
    Ok, das hat mich schmunzeln lassen. Und Recht hast du natürlich, es ist unsinnig, dies alles zu übersetzen, die Begriffe haben sich nunmal durchgesetzt, auch im deutschsprachigen Bereich. Wie man das werten will, ist natürlich jedem selbst überlassen. 😉

  4. Manche Begriffe lassen sich eben nicht so einfach ins Deutsche übersetzen, ohne dass deren Sinn verfremdet wird. Dann lieber lassen, meine Meinung.

  5. Naja ich fand Recap schon passender als beispielsweise „Zusammenfassung“. Der Blackhat Vortrag klingt ja wirklich interessant, würde mich ja mal interessieren, wie das Backlink-Manipulationsprogramm in der Praxis wirkt. Kleinere Konkurrenzseiten so abzuschiessen, wäre ja schon krass

  6. Also der Blackhat Teil hätte mich auch brennend interessiert. Das Massenlinktool kann man doch sicher auch für Satellitennetzwerke einsetzen?

  7. Zum Absatz: Show me the Links:

    Wie sieht’s denn aus mit Social SEO?

  8. @Senta
    Was genau meinst Du mit Social SEO? SEO über „Soziale“ Netzwerke habe ich in dem Abschnitt zweimal angesprochen.

Schreibe einen Kommentar

Pflichtfelder sind mit * markiert.