Konferenzen, SEO

Recap SMX München 2017

Sven Giese / 29. März 2017

  • Home
  • Blog
  • Recap SMX München 2017

Und jährlich grüßt die SMX im März aus München. Unter den zahlreichen SEO-Events und Konferenzen ist mir die SMX definitiv eine der liebsten. Insofern ging es auch im Frühling 2017 wieder ins schöne München. Für den Autoren dieses SMX-Recap tatsächlich schon der vierte Besuch des deutschen Search Marketing Expo-Ablegers. 

Ein paar Daten und Fakten zur Search Marketing Expo 2017

Zu Beginn ein paar Zahlen, die relativ schnell klar machen, dass diese Rising Media Veranstaltung den Namen Leitmesse in Sachen SEO, SEA und Online Marketing völlig zurecht trägt. So kamen im Zeitraum vom 14. bis zum 15. März ca. 1700 Besucher zu den mehr als 60 Sessions, die von über 80 internationalen Speakern im ICM (Internationales Congress Center München) gehalten wurden. Natürlich auch 2017 wieder mit großen Namen wie dem (alljährlichen) Rand Fishkin, Will Reynolds, Marcus Tober und Googles John Müller.

Zwei-Tage-Pass für die SMX München 2017

Im Laufe der beiden Tage habe ich insgesamt 12 Vorträge mit unterschiedlichen Referenten gehört, wobei der inhaltliche Fokus primär auf den SEO-Themen lag. Wie bereits beim Recap der SMX München 2016 gibt es im Folgenden nicht die typisch chronologische Reihenfolge der Vorträge, sondern eine thematische Sortierung mit Stichworten zu den Sessions bzw. Keynotes, die mir persönlich am besten gefallen haben (weitere Recaps finden sich unten in den weiterführenden Links).

Keynotes

Keynote 1- Rand Fishkin: Suchmarketing 2017

Auch 2017 eröffnete niemand Geringeres als der Wizard of Moz, Rand Fishkin die SMX mit seiner Keynote. Laut Aussage von Moderator Alexander Holl war 2017 inzwischen der neunte SMX-Besuch des US-Amerikaners und jeder, der/die sich nur halbwegs ernsthaft mit dem Thema SEO und Online Marketing beschäftigt, sollte ihn mindestens 1x live erlebt haben. Hervorragender Speaker.

Unter dem Titel Searchscape 2017 tritt diese Eröffnungs-Keynote einen Schritt zurück und versucht einen Blick auf die Verschiebung der Anforderungen an SEO als Teildisziplin des Online Marketing zu werfen, dessen einzige Konstante der stetige Wandel zu sein scheint. Folgende Kernaussagen habe ich für mich mitgenommen:

  • Aktuelle Erhebung von Clickstream Data in Kooperation mit Jumpsuit (siehe Foto und Link zu den Folien dieser Keynote).
  • Google als Suggestion Machine: Die SERPs liefern inzwischen selbst eine Vielzahl von Antworten auf Suchanfragen. Gerade in den Answer Boxes / SERP Features sieht Fishkin aber auch eine der großen Chancen für SEOs. Interessant in diesem Zusammenhang auch die formulierte Vermutung, dass solche Antworten auch für den Paid Search Bereich von Interesse sein dürften. Man bietet sozusagen auf das Featured Snippet.
  • Der derzeitige Markt für Apps dürfte in absehbarer Zeit durch Progressive Web Apps (PWA) vollständig abgelöst werden.
  • SEO ist in den letzten Jahren immer wieder für tot erklärt worden. Bisher konnte es sich immer wieder anpassen bzw. gegen Trends behaupten, umso bemerkenswerter, dass Fishkin in der Verbreitung von Voice Search erstmals eine ernsthafte Bedrohung für die Branche sieht. Zwar benötigen auch die digitalen Assistenten aufbereitete Informationen, ob diese dann aber noch über die eigenen Websites kommen bzw. durch SEO für die organischen Suchergebnisse aufbereitet werden, steht in den Sternen.
  • Abschließend äußert sich Rand äußerst besorgt über die sich in den USA abzeichnende Auflösung der Netzneutralität, einem der zahlreichen Negativeffekte der Regierung Trump.

Fazit: Der ewige Rand Fishkin liefert auch 2017 eine bemerkenswerte Keynote! Wer sich selbst ein Bild machen möchte, findet die Slides auch unter folgender URL: https://www.slideshare.net/mobile/randfish/the-search-landscape-in-2017

Keynote 2 – Oliver Borm: Lösungsansätze für immense Herausforderungen – Attribution 2017

Wie in den letzten Jahren üblich war die zweite Keynote des Tages wieder einem Nicht-SEO-Thema vorbehalten. Bühne frei für den Google-Mitarbeiter Oliver Borm, der eine Menge spannender Insights zum Thema Attribution im Jahre 2017 zu berichten wusste. Die im Folgenden skizzierten Learnings habe ich mitgenommen.

Oliver Borm während seiner Keynote auf der SMX München 2017.

  • Ausgangslage: Bislang fokussierte sich Messung im Online-Marketing immer nur auf den letzten Klick, der dann als Conversion gezählt wurde. Aufgrund der Vielzahl verschiedener Endgeräte ist ein solches Vorgehen nicht mehr zeitgemäß bzw. verschenkt unnötig Analysepotenzial.
  • Dementsprechend sei eine datengetriebene Attribution in Kombination mit Cross Device Tracking inzwischen als Grundvoraussetzung zu betrachten, um im Wettbewerb bestehen zu können.
  • Vor diesem Hintergrund stellt Borm verschiedene Möglichkeiten zur Attribution vor, betont aber deutlich, dass hier lineare Modelle eher weniger sinnvoll sind, sondern man auf dynamische Zahlenmodelle stützen sollte, die sich an die jeweiligen Anforderungen anpassen.
  • Basis solcher dynamischen Modelle ist bei Google inzwischen Machine Learning und Brom zeigt am Beispiel Google Translate wie eine japanische Speisekarte in Echtzeit per Scanner übersetzt wird. Zumindest in der Theorie, denn hier machte die Technik im Saal leider einen Strich durch die Rechnung. Ein weiteres spannendes Beispiel ist die Bilderkennung (Hund oder Muffin, Hund oder Fried Chicken usw.) mit der die KI von Google Algorithmen trainiert wird. All dies ist Basis für die (automatisierte) Genese von Smart Bidding Strategien.
  • Großes Attributions-Thema für die Zukunft: Online/Offline-Bezüge bzw. wie können Online-Kunden auch im stationären Handel getrackt werden. Datenschutz spielt hier natürlich eine Rolle, funktionierende Möglichkeiten sieht Borm hier allerdings durch sogenannten Keys wie z.B. eine Kundenkarte oder Mail-Adressen, die im Gegensatz zu Positionsdaten oder WLAN-Daten – sehr eindeutige Messungen zulassen.

Fazit: Thematisch natürlich ein ganz anderer Bereich als SEO, trotzdem sehr spannender Vortrag mit vielen interessanten Einblicken, wie weit Google mit dem Thema KI bzw. Machine Learning bereits ist.

Keynote 3 – Wil Reynolds: Suchresultate brauchen mehr Menschlichkeit oder warum kaufen wir eigentlich?

Die dritte Keynote hat es aufgrund ihrer zeitlichen Platzierung – relativ früh am Morgen des zweiten Tages = nach der SMX Party Nacht – immer etwas schwer. Aber die Veranstalter inzwischen auch gelernt und diese erst in den zweiten Slot des Tages gelegt bzw. mit dem US-Amerikaner Will Reynolds einen echten Hochkaräter an den Start gebracht.

Wil Reynolds während seiner Keynote auf der SMX München 2017.

  • Reynolds erklärte dem Publikum, warum gute Rankings nicht unbedingt ausschlaggebend für hohe Umsatzeinnahmen sind und man als Online Marketer vielmehr versuchen sollte, die Intention und Wünsche seiner Besucher zu verstehen.
  • Einleitendes Beispiel/Frage: Welche Keywords ergeben aus Sicht des (Fach-)Publikums Sinn für eine SEO-Agentur. Vorschläge: SEO Agency, SEO Consultant usw. Reynolds insistiert im Folgenden darauf, dass er Jahre seines Berufslebens damit verschwendet habe, für solche harten Keywords weltweit TopRankings aufzubauen. Warum verschwendet?
  • Keines dieser Rankings habe einen einzigen Kunden gewonnen, da es sich hierbei um typische Querys für kleine Unternehmen handelt. Seine Agentur arbeite auf Enterprise Niveau.
  • Wil sagte ganz klar, dass man durch Weiterempfehlungen und dankbare User viel mehr Umsatz generieren kann – „Thanks, before ranks“.
  • Demgegenüber werde Google aber eben auch immer besser darin, Enttäuschungen der Webseitenbesucher zu messen. Deshalb sollte auch bzw. vor allem in der organischen Suche immer die zielgerichtete Ansprache der Suchenden bzw. potenziellen Kunden im Fokus stehen. An einer ganzen Reihe von Beispielen Illustriert er, wie vor diesem Hintergrund bereits kleine Änderungen zu einer deutlich besseren Nutzung vorhandener Traffic-Potentiale geführt haben.

Fazit: Ähnlich wie Rand Fishkin sollte man Will Reynolds unbedingt als Redner live gesehen haben. Sowohl die Art des Vortrags als auch der vorgestellte Denkansätze sind klasse.

Völlig subjektive Auswahl hervorragender SMX-Sessions

Im Folgenden eine kleine, aber feine Auswahl von Sessions, aus denen ich etwas mitnehmen konnte. Die hier genannten Vorträge bedeuten im Umkehrschluss aber nicht, dass der Rest qualitativ schlecht gewesen sei. Ich habe diese einfach nicht gesehen/gehört. 😉

Tag 1 – Phillip Klöckner: SERPs im Wandel und Astrid Kramer: Was sind Featured Snippets?

Den Auftakt machte eine Doppelsession mit Phillip Klöckner und Astrid Kramer, die sich thematisch beide mit dem Thema der veränderten SERPs beschäftigen. Im Folgenden die wichtigsten Aspekte aus beiden Vorträgen:

Phillip Klöckner: SERPs im Wandel

  • Ausgangslage war der Hinweis auf die Beobachtung, dass trotz steigender Zahl der Suchanfragen die organischen Klicks deutlich abnehmen. Primärer Grund für diese Entwicklung ist im veränderten Design und der Zunahme von Googles eigenen Diensten zu sehen (Ads, Universal Search, Maps usw).
  • Die Einführung der Universal Search im Jahre 2007, die laut Klöckner einer der stärksten Veränderungen der SERPs darstelle. Denn spätestens mit dieser Änderung habe sich Google von der klassischen Ergebnisseite mit zehn organischen (blauen) Links verabschiedet.
  • Vor diesem Hintergrund sei die derzeitige Entwicklung nur eine konsequente Fortführung dieses Weges und inzwischen könne man für einige Queries tatsächlich ausschließlich in Google-eigenen Produkten navigieren (Maps, Videos usw.).
  • Schlechte Neuigkeiten für SEO? Nach Klöckners Einschätzung auf jeden Fall. Denn perspektivisch wird Google die organischen SERPs wohl vollständig entfernen und aus den vorhandenen Daten selbst die jeweils beste Antwort zu liefern. In diese Richtung deute auch die Forcierung von AMP.
  • Insofern ist der Begriff Universal Search durchaus als programmatische Ankündigung zu verstehen.
  • Slides des Vortrags gibt es unter: https://www.slideshare.net/kloeckner/seo-serps-im-wandel-smx-munich-2017

Astrid Kramer: Was sind Featured Snippets?

Auch der Vortrag von Astrid Kramer beschäftigte sich mit den Veränderungen der SERP-Landschaft. Hier allerdings mit einem konkreten Fokus, den Featured Snippets. Einleitender Hinweis: Featured Snippets sind nicht mit Answer Boxes und Live-Daten aus dem Google Knowledge Graph zu verwechseln. Google selbst liefert hier eine sehr präzise Definition, die besagt, dass es sich hierbei um eine „Minimally structured answer with source link“ handelt.

  • Auch wenn man relativ schnell den Eindruck erhalten könne, dass nur Platzhirsche wie Wikipedia & Co eine Chance auf ein solches Snippet haben, kommt – die entsprechende Information vorausgesetzt – jeder Website dafür in Frage.
  • Wer ein solches Featured Snippet haben möchte, sollte sich in einem ersten Schritt die vorhandenen Ergbenisse hinsichtlich Struktur bzw. Formatierung (Listen, Absätze usw.) sehr genau anschauen und diese versuchen nachzubauen.
  • Hilfreich ist hier, thematisch relevante Fragetypen zu analysieren und herauszufinden, für welche Queries es diese Snippets bereits gibt. Das derzeit nützlichste Recherche-Tool ist Semrushs Tool SEO Keyword Magic dar.
  • Laut Kramer sei weiterhin mit einer Textlänge von 40 bis 50 Worten im ersten Absatz ein formales Kriterium erfüllt. Zwar griffen die Featured Snippets nicht aktuell nicht auf Microdaten zurück, allerdings könne die Implementierung von schema.org Questions + Answers auch nicht schaden.
  • Darüber hinaus liefere ein ideal gestaltetes Snippet nicht die vollständige Antwort, sondern ermutige den Lesern auch zum Klick für weitere Informationen.

Fazit: Insgesamt sehr spannende Session, bei dem jedes der beiden vorgestellten Themen deutlich mehr Zeit verdient hätte.

Tag 1 – John Müller: Schluss mit hartnäckigen SEO Mythen

Ich muss an dieser Stelle mal eine Lanze für John Mueller brechen. Googles Webmaster Trends Analyst ist nicht nur einer von Googles  Hauptansprechpartnern in Sachen organische Suche, sondern besitzt scheinbar auch über eine Engelsgeduld. Angesichts der Fragen die auf den Schweizer einprasseln ist das schon bewundernswert. Natürlich durften auch dieses Jahr wieder zwei Sessions bei der SMX nicht fehlen, wobei ich nur die im Folgenden skizzierte Session gehört habe, deren Aufbau sich primär aus eingereichten Teilnehmerfragen zusammensetze. Für die Site Clinic des zweiten Tages verweise ich daher auf die unten verlinkten Recaps der Kollegen.

  • Google kann grundsätzlich alle Inhalte einer Website indexieren und erkennen. Müller verweist darauf, dass sie zwar immer versuchen, möglichst viel zu erfassen, was im Umkehrschluss aber nicht bedeute, dass auch alles indexiert werde (Hinweis auf den Unterschied zwischen Crawling und Indexierung). Vor diesem Hintergrund weist der Schweizer auch darauf hin, dass Google in der JavaScript in der Regel relativ problemlos crawlen kann, da sie den Code auch realiter ausführen. Aktuell habe man allerdings einige Probleme mit Scripten wie Service Workern, arbeite aber daran.
  • Googles KI kann alle Inhalte verstehen. Der Schweizer verweist darauf, dass man als Webmaster vor allem darauf achten sollte, dass Menschen den Inhalt der Seiten verstehen. Ist dies nicht der Fall, bekommt eben auch Google Probleme bei der Bewertung. Um solche Verständnis-Probleme in Zukunft besser lösen zu können, wurde RankBrain entwickelt, welches sich gerade bei der Bewertung ganz neuen Suchanfragen bereits bewährt hat.
  • Es gib genau einen Google-Suchalgorithmus. John Müller verneint dies deutlich. So verfügt Google über eine ganze Reihe verschiedener Unteralgorithmen, die – auch in Kombination – in Abhängigkeit von den Suchanfragen herangezogen werden.
  • Eine Marke muss immer für den eigenen Suchbegriff ranken. So lange diese eigenständig bzw. unique ist, sollte dies auch problemlos funktionieren. Bei generischen Begriffen bzw. Doppelungen bekommt aber auch Google naturgemäß ein Problem bei der Zuordnung solcher Suchanfragen.
  • Ein SEO-Klassiker: Unterscheidet Google zwischen Singular und Plural? Laut John Müller kann Google Singular und Plural nicht wirklich manuell unterscheiden. Man arbeitet hier zur Erkennung eher mit einem allgemeinen System, das (meistens) sprachübergreifend funktioniert. Die gilt übrigens auch für Umlaute usw.
  • Der Umgang mit IP-Redirects bei internationalen Websites? Scheint für Google nicht ganz unproblematisch zu sein, da Googlebot immer aus den USA kommt und man dementsprechend aufpassen müsse, ihn hier nicht auf die falsche URL zu leiten.
  • Welche Unterschiede wird es in Bezug auf „Mobile First“ geben? Sobald der mobile Index online ist, wird er Googles primäre Sicht darstellen. Deshalb sollten alle wichtigen Informationen der Website auch in der mobilen Version enthalten sein.

Tag 1 – Marcus Tandler und Larry Kim: Warum so kompliziert, wenn es einfach geht? Wie der Einsatz der Search Console euer Leben erleichtern wird und die zur Verfügung stehenden CTR Daten zum Traffic Booster werden

Die Google Search Console und die CTR gelten nach wie vor als Hidden Champions im Bereich der SEO-Tools. Marcus Tandler (OnPage.org) und Larry Kim (Wordstream) hielten zu diesem spannenden Thema eine Doppelsession, deren wichtigste Punkte die folgenden Zeilen zusammenfassen.

 

Marcus Tandler: CTR

OnPage-Chef und SEO-Urgestein Marcus Tandler singt ein Loblied auf die Search Console, weist zugleich aber auch darauf hin, dass viele SEO das vorhandene Analysepotenzial des Tools in der täglichen Arbeit nicht nutzen. Dabei möchte der Vortrag zeigen, wie mit Hilfe der GSC fünf wichtige SEO-Tasks zeitsparend gemeistert werden können.

Ausgangslage: CTR ist eine gute Kennzahl um die Performance einer URL in den SERPs zu messen bzw. sich dort gegen die Konkurrenz zu beweisen.

  • Achtung: Grundsätzlich sollte man eine gewisse Vorsicht bei vorhandenen Daten aus der Suchanalyse walten lassen, denn diese sind lediglich aggregiert, beinhalten auch Sitelinks und schließen z.B. äußerst seltene Suchanfragen völlig aus.
  • GSC hilft bei der Vermeidung von Keyword Cannibalization, indem man die Daten auf eine bestimmte Suchanfrage einschränkt und dann prüft, ob mehrere URLs ausgespielt werden. Auch Vergleiche sind möglich: z. B. Desktop vs. Mobile oder die Performance in verschiedenen Ländern.
  • Search Console als SEO-Performance-Check: Gibt es URLs, die von Google testweise bzw. temporär in die Top10 verschoben werden? Falls ja, lässt sich dies hier ablesen.
  • Entdecken von Keyword-Potenzialen: Lassen sich in den Daten Suchanfragen finden, für die eine Seite schon (minimale) Rankings aufweist? Kann man diese URLs ausbauen bzw. ggf. eine neue Seite erstellen?
  • Monitoring von organischer Performance: Seiten mit guter Performance wandern in den SERPs nach oben, schlechte nach unten – auch hier helfen die GSC-Daten.

Larry Kim: 8 Mind-Blowing Experiments that will forever change your approach to SEO

Den Kanadier Larry Kim kennen die meisten Online Marketer wohl eher aus dem SEM-Bereich bzw. als Gründer des Tools Word Stream. Obwohl Google nach wie vor behauptet, dass sie User Engagement nicht für das direkte Ranking heranziehen, sieht Kim in Form der CTR als Kennzahl ein deutliches Gegenargument gegeben. Gemäß dem Motto „Data wins the Argument“ untersucht er anhand von acht konkreten Experimenten, wie sich durch Optimierung des CTR auch der organische Traffic signifikant steigern lässt.

 

  • Experiment 1:Finding RankBrain. Word Stream verfügt über einen riesigen Datensatz, mit dessen Hilfe Kim 1000 Rankings beobachtet hat. Ergebnis: Hohe CTR -> verbesserte Rankings.
  • Experiment 2: Einfluss CTR auf Ranking. Bei einer relativen CTR-Verbesserung von 3% lässt sich eine Ranking-Verbesserung um eine Position feststellen.
  • Experiment 3: CTR lässt sich durch Optimierung des Title pushen. Funktioniert natürlich, insofern scheint die Formel higher CTR = Better Ranking = More Clicks zu gelten.
  • Experiment 4: Einfluss von Engagement-Daten wie Dwell Time auf Ranking. Nach Auswertung der Daten gelangt Kim zu dem Schluss, dass Rankings auf den Positionen 1-6 hohes User Engagement benötigen.
  • Experiment 5: Im Jahre 2015 verfügten die Top 32 Domains in der organischen Suche über eine überdurchschnittliche Dwell Time. Demgegenüber seien viele Websites mit schlechter Performance nach und nach aus den Rankings entfernt worden.
  • Experiment 6: Featured Snippets (FS). Ein Großteil der vorhandenen FS generiert Google aus den jeweiligen Top3-Positionen der SERPs. Demgegenüber lassen sich aber auch Fälle finden, wo diese Position von den Positionen 4,5, 6 oder sogar Position 71 stammt. Für Kim spielt hier der Faktor des hohen Engagements (Dwell Time, CTR) eine gewichtige Rolle.
  • Experiment 7: Social Signals und Rankings. Zweifellos zieht Google soziale Signale nicht als direktes Ranking-Signal heran. Demgegenüber lässt sich aber auch relativ deutlich zeigen, dass URLs mit einer hohen Facebook Engagement Rate auch über einen hohen organischen CTR verfügen.
  • Experiment 8: Conversion- und Engagement-Rates. Die vorhandenen Daten konnten zeigen, dass Suchergebnisse mit hohen CTR-Werten deutlich besser konvertieren.

Super spannende Doppelsession, bei der ich mir für beide Speaker ebenfalls deutlich mehr Zeit gewünscht hätte. In der abschließenden Frage-Runde gaben Tantler und Kim nochmals ein paar sehr interessante Tipps, auf was man im Kontext der CTR-Optimierung achten sollte. Auch hier fasse ich die wichtigsten Aussagen nochmals zusammen:

  • Definition einer guten CTR. Kennzahl ist sehr branchenspezifisch, weshalb man sich hier zur Durchschnittsermittlung besser auf die eigenen Website-Daten verlassen sollte. Um Potenziale zu finden, auf dieser Basis die URLs suchen, die gegenüber dem Durchschnitt 2x besser bzw. 3x schlechter sind.
  • Hier unbedingt auch die verschiedenen Endgeräte-Varianten zur Analyse heranziehen. Gerade Engagement-Rates bei der mobilen Nutzung können viel über die CTR-Leistungsfähigkeit aussagen.
  • Konkreter OnPage SEO-Tipp: Title-Elemente nicht nur mit Keywords füllen, sondern sich auch an der CTR orientieren. Larry Kim verweist darauf, dass man hier jeweils zehn verschiedenen Varianten mit AdWords, Bing-Werbung oder Facebook-Postings testen sollte und die beste(n) dann auch für die eigene Website bzw. die jeweilige URL verwendet. Alternativ funktionieren hier auch E-Mail-Newsletter oder Meta Descriptions.

Tag 1 – Tom Anthony:  Der Beginn einer neuen Ära: Anleitung für SEO Split-Testing

Um es vorweg zu sagen, ich bin großer Fan der Arbeit der britischen Kollegen von Distilled, deren Ansätze und Überlegungen eine Menge an Input geliefert haben. Umso schöner, dass bei der diesjährigen SMX gleich mehrere Speaker vor Ort waren. Den Anfang machte Tom Anthony mit dem Vortrag Der Beginn einer neuen Ära: Anleitung für SEO Split-Testing. Im Folgenden die wichtigsten Punkte und Learnings aus dieser Einzelsession am späten Nachmittag des ersten Tages.

  • Ausgangslage: Egal ob SEA oder SEO – um die Arbeits- und Funktionsweise von Google bzw. Suchalgorithmen im Allgemeinen zu verstehen, nutzen die meisten Marketer verschiedene Testverfahren.
  • In der Regel liegen solchen Tests und Prozessen – gerade im SEO – eher eine Menge Mutmaßungen zu Grunde. Anders gesagt: Was Änderungen bei Google wirklich bedeuten, ist zumeist reine Spekulation.
  •  Zur Unterstreichung dieser These startet Anthony eine Umfrage im Saal, bei der das Publikum anhand von drei Beispielen (inkl. vorhandener KPIs) die besser rankende URLs nennen soll (siehe dazu auch den Link zu den Slides unten). Das Ergebnis ist vernichtend: Aus dem gesamten Saal konnte lediglich eine Handvoll an Leuten. Ich bin bei der zweiten Rune rausgeflogen. Immerhin. 😉
  • Eines der Hauptprobleme für SEOs besteht darin, dass ein klassisches A/B-Testing, wie man es von LandingPages oder E-Mail-Newslettern kennt, nur bedingt möglich ist. Denn URLs lassen sich im Live-Betrieb einer Seite nicht beliebig duplizieren bzw. werden immer auch nur durch den GoogleBot besucht bzw. bewertet.
  • Darüber hinaus skizziert er die folgenden vier Aspekte als kritisch: Voraussagen über Googles Algorithmus sind schwierig und nicht valide, jedes Projekt reagiert unterschiedlich auf bestimmte SEO-Maßnahmen, der Einfluss des Faktors Machine Learning wird diesen Aspekt verschärfen.
  • Deshalb möchte Tom Anthony mit seinem Vortrag eine Möglichkeit skizzieren, wie man fundierte SEO-Tests durchführen kann, um fortan auch den tatsächlichen Impact von Maßnahmen bzw. Änderungen zu messen. Distilled hat dazu im letzten Jahr ein eigenes CDN gestartet (Distilled ODN – Optimization Delivery Network), dessen Möglichkeiten anhand von verschiedenen Testbeispielen vorgestellt werden.
  • Seit Kurzem steht aber auch eine kostenlose Alternative zur Verfügung, mit der sich solche Verfahren ebenfalls für jeden Webmaster und SEO selber durchführen lassen. Details dazu gibt es ausführlich in den Slides der Präsentation: https://www.slideshare.net/TomAnthony/next-era-of-seo-a-guide-to-seo-splittesting

Fazit: Meiner Meinung einer der besten Vorträge der SMX. Sowohl Art als auch Inhalt haben richtig gerockt und für die tägliche Arbeit einen spannenden Input geliefert. Denn am Ende zählt: Data wins the argument. 🙂

Tag 2 – Bastian Grimm und Philipp Klöckner: Relaunch nationaler und internationaler Websites: Planung, häufige Probleme, Checkliste

Das Thema Relaunch ist – nicht nur aus SEO-Perspektive – immer eine kritische Angelegenheit. Insofern hat es mich eigentlich gewundert, dass dieses Thema nur mit der Doppel-Session von Bastian Grimm und Philipp Klöckner vertreten war. Die beiden haben hierzu dann aber auch eine Menge zu erzählen gehabt.

Philipp Klöckner: Relaunch & SEO: Best Practice, Checklists, Stolpersteine

Neben zahlreichen Beispielen über gelungene und völlig verkorkste Relaunch-Projekte (siehe unten beigefügter Link zu den Slides der Präsentation) betont Klöckner hier vor allem die folgenden Aspekte, die im Zuge einer solchen Umstellung zu beachten sind.

  • Als Faustregel sollte immer gelten: Weniger Komplexität heißt weniger Probleme! Der Relaunch ist ein optimaler Zeitpunkt, um lange aufgeschobene Aufräumarbeiten zu erledigen. Sowohl auch technischer Ebene (Redirects, robots.txt, URL-Struktur usw.) als auch im Content-Bereich (Stichwort: Panda-Diät).
  • Im Zuge des Relaunchs unbedingt auch nochmals einen kritischen Blick auf das Backlink-Profil der Domain werfen und hier ggf. Altlasten entfernen.
  • Zur Vorbereitung und im Nachgang natürlich: Daten erfassen und Crawlen bzw. immer auch die Server-Logs zur Fehler-Eliminierung heranziehen.
  • Folien der Präsentation gibt es unter: https://www.slideshare.net/kloeckner/relaunch-seo-best-practise-checklists-stolpersteine

Bastian Grimm: HTTPs Migration How To

Im zweiten Teil der Session wurde es dann sehr spezifisch. Bastian Grimm beleuchtete die kritischen Punkte bei einem Wechsel von http zu https zu beachten sind. Denn was auf den ersten Blick relativ trivial und durch ein paar einfache Redirects lösbares Problem erscheint, erweist sich bei näherer Betrachtung als ziemlich komplexes Thema.

  • Interessante Bemerkung: SSL ist nicht nur für den http2-Standard Voraussetzung, sondern wird von Google auch für die Verwendung von AMP gefordert. Letzteres war bei der AMP-Einführung auch noch anders.
  • Crawl-Budget einer Domain ist ein Problem beim Protokoll-Wechsel. D.h. Je höher die Zahl der URLs ist, desto länger benötigt Google auch, die URLs zu indexieren. Ggf. sollte man zu Testzwecken überlegen, die HTTPS-Umstellung zunächst selektiv pro Verzeichnis oder System durchzuführen.
  • Auch Klöckner verweist nochmals ausdrücklich darauf, vor der Umstellung die Website möglichst komplett zu Crawlen (z.B. Screaming Frog SEO Spider oder OnPage.org – bei größeren Projekten besser mit DeepCrawl oder Audisto).
  • Für die Zeit des Wechsels unbedingt die vorhandenen Rankings sehr genau im Blick behalten und täglich prüfen.
  • Auch hier gibt es alle Folien und Checklisten zum Download unter:: https://pa.ag/smx17https

Fazit: Das Thema Relaunch ist scheinbar ein Fass ohne Boden und insofern ist natürlich etwas beruhigend, wenn auch andere mit solchen Problemen konfrontiert sind. Abgesehen davon sind solche Sessions aber immer auch eine gute Gelegenheit, passende Beispiele für spezifische Problemstellungen an die Hand zu bekommen bzw. alternative Lösungsvorschläge zu bekommen. Insofern auch hier ein Daumen hoch.

Fazit

Auch 2017 verdient sich die SMX München sowohl inhaltlich als auch wieder ein großes Lob. Fachlich konnten so ziemlich alle Sessions überzeugen, wobei ich dieses Jahr mir an einigen Stellen etwas mehr Zeit für die Referenten gewünscht hätte. Gerade die Doppel-Sessions wirkten teilweise sehr gehetzt, insofern scheint mir die Reduktion der Referentenzahl eher sinnvoller. Dies auch vor dem Hintergrund, dass einige Leute dann gleich mehrfach im Programm auftauchten.

Aber das ist „Meckern auf hohem Niveau“. Ich habe jedenfalls genügend Anregungen zum Nachdenken mitgenommen. Darüber hinaus lebt eine solche Veranstaltung aber natürlich auch vom fachlichen Austausch mit anderen Besuchern und Teilnehmern. Und wenn es dazu noch eine gute Organisation inkl. leckerem Essen gibt, darf man ruhig von einem gelungenen Gesamtpaket sprechen. 🙂

Grundsätzlich sollte man sich als Agentur bzw. Unternehmen aber überlegen, die SMX mit mehreren Leuten zu besuchen, um hier möglichst viel mitzunehmen. Zwar verschickt der Veranstalter ein Mailing aller verfügbaren Slides und Präsentationen, vor Ort bzw. im persönlichen Gespräch mit den Referenten lässt sich m.M. deutlich mehr an Informationen aus solch einer Konferenz mitnehmen.

In diesem Sinne: Egal ob SEO oder SEA, auf jeden Fall schon mal den 20. – 21. März als Termin für 2018 vormerken. 🙂

Weitere Recaps und Informationen zur SMX München 2017

Sven Giese

Sven ist ein echtes SMART LEMON Urgestein. Er ist seit 2012 bei uns und war der erste Mitarbeiter der Agentur. Als Head of SEO leitet er das SEO-Team und verantwortet in diesem Bereich das Tagesgeschäft. Außerdem bildet er Kolleg:innen in Sachen Suchmaschinenoptimierung aus. Den Großeltern kann man das so erklären: Sven macht was mit Computern. Und mit Nachdenken 😉

SMART LEMON Newsletter

Nichts mehr verpassen! Erhalten Sie aktuelle Infos rund um die Themen SEO, SEA, Web & Social Media.

menu-2