SEO

Recap SMX München 2016

Sven Giese / 24. März 2016

  • Home
  • Blog
  • Recap SMX München 2016

Man merkt, der Frühling steht vor der Tür, wenn die SMX München zur alljährlichen Konferenz ins ICM (Internationales Congress Center München) einlädt. 2016 waren dies der 17. und 18. März. Über 80 internationale Speaker, 60 Sessions und ca. 3000 Besucher machen relativ schnell klar, warum diese Rising Media Veranstaltung den Namen Leitmesse in Sachen SEO, SEA und Online Marketing trägt.

Für mich war es inzwischen der dritte Besuch des deutschen SMX-Ablegers, zugleich aber das erste Mal in den Räumlichkeiten des ICM. Natürlich ist München immer eine Reise wert, als Konferenz liegt der Reiz der SMX aber meiner Meinung nach vor allem in der Qualität der internationalen Speaker und Sessions. Namen wie Rand Fishkin, Marcus Tandler, Marcus Tober, Joost de Valk und viele weitere sprechen hier eine deutliche Sprache.

Im Laufe der beiden Tage habe ich insgesamt 12 Vorträge mit unterschiedlichen Referenten gehört, wobei mein inhaltlicher Fokus natürlich primär auf den SEO-Themen lag. Grundsätzlich sollte man sich als Agentur bzw. Unternehmen aber überlegen, die SMX mit mehreren Leuten zu besuchen, um hier möglichst viel mitzunehmen. Im Folgenden aber nicht in der typisch chronologischen Reihenfolge, sondern nach thematischen Schwerpunkten und den Sessions sortiert, die mir persönlich am besten gefallen haben (weitere Recaps finden sich unten in den weiterführenden Links). Sozusagen ein rein subjektiver Rückblick.

Keynotes

Keynote 1 – Rand Fishkin: Optimierung für eine neue Welt: wie Google Machine Learning in die Suche integriert

Laut Aussage von Moderator Alexander Holl war 2016 inzwischen der achte SMX-Besuch des Wizard of Moz. Und Rand Fishkin sollte jeder, der/die sich nur halbwegs ernsthaft mit dem Thema SEO und Online Marketing beschäftigt, mindestens 1x live erlebt haben. Hervorragender Speaker.

Unter dem Titel Optimierung für eine neue Welt: wie Google Machine Learning in die Suche integriert eröffnete der US-Amerikaner die diesjährige SMX. Wer das Thema und die Diskussion um Googles Einführung von RankBrain schon länger verfolgt, konnte sich hier über eine deutlich aktualisierte Version von Fishkins 2015er Präsentation:

SEO in a Two Algorithm World: http://de.slideshare.net/randfish/onsite-seo-in-2015-an-elegant-weapon-for-a-more-civilized-marketer

(…) freuen. Alle anderen bekamen eine gute Einführung in die Möglichkeiten des Machine Learning. Kernaussage: User Engagement wird im gesamten Online-Bereich ein immer wichtigerer Faktor werden. Fishkin betonte hier, dass dies eben nicht nur für Google, sondern grundsätzlich für alle relevanten Plattformen (Facebook, Twitter, Instagram usw) zum Tragen kommt. Folgende Tipps gab er dem Publikum mit auf den Weg, um auch in der neuen Welt des Machine Learnings erfolgreich zu sein.

Take-aways und Learnings Keynote Rand Fishkin

  • Algorithmen werden inzwischen von anderen Algorithmen geschrieben. Insofern sind die Ergebnisse schwerer vorhersehbar. Das Google allerdings selbst RankBrain wirklich nicht vollständig versteht, halte ich für ein Gerücht.
  • Engagement Reputation: Websites und Brands werden in Zukunft immer stärker mit der Frage konfrontiert, wie User mit der Marke interagieren. Hier liegen die größten Chancen für modernes Online Marketing.
  • Übertragen auf den SEO-Bereich: Der Zurück-Button wird zum größten Feind des SEO, da der Bounce Rate eine zunehmend größere Bedeutung zukommt. Unter dieser Prämisse kommt der CTR als potenzielles Rankingsignal eine wesentlich größere Bedeutung zu. Dementsprechend sollte man auch seine Snipptes, Titles & Co optimieren. Das erklärt auch den abweichenden Titel der Präsentationsfolien: Fight Back Against Back: How Search Engines & Social Networks‘ AI Impacts Marketing (http://de.slideshare.net/randfish/fight-back-against-back).
  • Qualität der Inhalte aus Sicht des informationssuchenden Besuchers rückt noch stärker in den Vordergrund. Interessantes Finding: Kommerzielle Suchergebnisse ranken nicht mehr für informelle Suchanfragen.

Keynote 2 – Dela Quist: Marketing-Automatisierung macht den Traum von Multi-Channel Marketing-Programmen zur Realität! Und warum setzen so wenige Unternehmen den Traum um?

Die zweite Keynote der Veranstaltung widmete sich dem Thema der Marketingautomatisierung mit einem Schwerpunkt auf der E-Mail. Von allen Bereichen, die im modernen Online Marketing zur Anwendung kommen, gilt die elektronische Post als ziemlich unsexy. Völlig zu Unrecht, wie Referent Dela Quist (CEO von AlchemyWorx) anmerkt, denn dieser Kanal weist zum einen die höchste Effizienz auf, besitzt zugleich aber auch das größte Potenzial zur Automatisierung.

Interessante Randnotiz in diesem Zusammenhang: Quist kommt im Laufe seiner Keynote darauf zu sprechen, dass jeder ohne eine E-Mail Adresse ein Großteil der meisten Online-Dienste und Android-Geräte nicht nutzbar wären. Eine fehlende E-Mail sei sozusagen das digitale Äquivalent zu obdachlos.

Take-aways und Learnings Keynote Dela Quist

  • Ausgangsfrage: Wie und warum wird ein Kunde auf ein Unternehmen aufmerksam?
  • Trotz eines Überangebots an Marketing Software (2015 werden über 1800 Programme gelistet) schafft keines dieser Tools echtes Multichannel-Marketing. Warum? Zwar bedienen diese digitalen Werkzeuge verschiedene Kommunikationskanäle, berücksichtigten dabei aber an keiner Stelle die eigentliche Interaktion mit dem (konkreten) Kunden.
  • Insofern müsste nach Quist die Frage eigentlich lauten, ob der Multichannel-Ansatz überhaupt noch zeitgemäß ist, oder man sich als Online Marketer im Jahr 2016 nicht eher auf das Prinzip des Omnichannels setzen sollte, bei dem der Nutzer (gleichberechtigt) im Fokus aller Kanäle steht. Und dafür sei die E-Mail eben das perfekte Medium.

Keynote 3 – Marty Weintraub: Social? Psychographics? Data? SEO? PR? PPC? Was zur Hölle ist eigentlich Marketing heutzutage?

Die dritte Keynote der Veranstaltung wurde von Marty Weintraub (Co-Owner & Founder, aimClear Online Marketing Agency) gehalten. Rein von der zeitlichen Platzierung sicherlich der undankbarste Spot der drei Keynotes (frühere Freitagmorgen nach der vorabendlichen Party), allerdings bin ich mir auch im Rückblick nicht ganz sicher, was ich inhaltlich hieraus mitnehmen kann.

Vom Aufbau stellte Weintraub in seinem Vortrage verschiedene Hacks für die unterschiedlichen Bereiche des Online Marketings vor. Insofern packe ich hier mal die Punkte rein, die für mich hängengeblieben sind:

Take-aways und Learnings Keynote Marty Weintraub

  • Auch in Google News gilt: Gekaufte Beiträge können zum Ausschluss einer Seite/Domain führen. Weintraub empfiehlt daher, dass man als Marketer für stark umkämpfte Suchbegriffe eher dazu übergehen sollte, Advertorials auf mittelgroßen Publisher-Seiten zu kaufen (nofollow-Links und entsprechende Markierung vorausgesetzt), die bei Google News gelistet sind. Selbst wenn die Artikel gesponsored, bezahlt und entsprechend markiert sind, werden sie in der Regel von Google indexiert. Vorteile für die eigene Seite: Keine Gefahr des Ausschluss durch Google und die Möglichkeit über den gekauften Artikel Leads zu generieren.
  • Psychograpic Targeting: Social Advertising mit Zielgruppen ist eines der Tools der Stunde. Weintraub diskutiert die Möglichkeiten anhand von Facebook-Zielgruppen. So lassen sich mit den eigenen Inhalten z.B. gezielt Journalisten aus verschiedenen Resorts anvisieren.
  • Nicht alle Verkäufe müssen sofort erfolgen. Content Marketing kann dabei helfen, Interessenten langfristig zum Kauf zu bewegen.
  • Weintraub empfiehlt vor diesem Hintergrund, dass man sich langfristig einen Datenpool über teure, suchvolumenstarke Keywords aufbauen sollte, den man anschließend über günstigere Longtails per Retargeting in Angriff nimmt.

SMX-Sessions im Bereich technisches SEO

John Müller: Der perfekte Relaunch (Tag 1) und Technical Onpage & Onsite Clinic (Tag 2)

Ich muss an dieser Stelle mal eine Lanze für den guten John Müller brechen. Viele SEO-Kollegen bashen den Schweizer gerade hinsichtlich des Informationsgehalts seiner Aussagen. Aber ich kenne kaum jemanden, der so viele Fragen mit unendlicher Höflichkeit und Ruhe beantwortet, wie John Müller. Und das schon seit einigen Jahren. Insofern ein guter Grund, gleich zwei Sessions mit Googles Webmaster Trends Analyst zu besuchen.

Take-aways und Learnings von John Mülller: Der perfekte Relaunch

Für jeden Relaunch gilt es eine Reihe von allgemeingültigen Faktoren zu berücksichtigen:

  • Korrekter und einheitlicher Gebrauch von Begriffen und technischen Bezeichnungen in der Kommunikation zwischen allen Beteiligten klären. Was meint z.B. Protokoll, Host, Pfad, URL, Seite vs. Site.
  • Relaunch benötigt nicht nur Planung, sondern auch Dokumentation: John Müller empfiehlt, einmal die komplette Domain bzw. Seite crawlen lassen und die Ergebnisse speichern (z.B. Bilder, CSS-Dateien etc., aber auch die robots.txt, PDFs und Disavow-Files). Dazu gehören auch die Daten aus der Google Search Console. Da derzeit keine langfristige Speicherung der Daten seitens Google geplant sei, solle man diese besser regelmäßig herunterladen und archivieren. Gerade vor bzw. nach einem Relaunch können diese Daten sehr wertvoll sein.
  • Vor dem Relaunch auf jeden Fall auch Aufräumen und ggf. Duplicate Content entfernen bzw. bei einem Hostwechsel das Thema Webspam auf dem Schirm haben.
  • Je nachdem, was geändert wird, sind unterschiedliche Effekte zu erwarten (siehe dazu auch das beigefügte Foto der Matrix)
  • Nach einem Relaunch sollte man ggf. die Server-Kapazitäten aufgestockt werden, um ein schnelleres Crawling der neuen Seiten zu gewährleisten.
  • Fallen im Zuge des Relaunch Inhalte vollständig weg, hier eher den 410-Statuscode statt einem soften 404 verwenden. Das macht Google die Arbeit wesentlich leichter.
  • Wer möchte, kann und soll HTTP2 bereits nutzen. Google wird das Thema im Verlauf des Jahres aufgreifen. John weist hier aber darauf hin, dass es noch kein konkretes Datum gibt und man zur Verwendung zwingend auf HTTPS umstellen müsse.

John Mülller: Technical Onpage & Onsite Clinic (Tag 2)

Die zweite Session mit John Müller untersuchte dann 5 konkrete Fallbeispiele. Die SMX hatte vorher alle Teilnehmer angeschrieben, eigene Vorschläge bzw. Projekte einzureichen. Mir scheint aber, dass hier die Inhouse-Teams gegenüber den Agenturen bevorzugt wurden. Zumindest ließen dies die Resonanz und Rückmeldungen aus dem Auditorium vermuten. Schade, ich hatte auch ein paar Vorschläge und Fragen eingereicht.

Take-aways und Learnings von John Mülller: Technical Onpage & Onsite Clinic (Tag 2)

Ohne an dieser Stelle auf die jeweiligen Beispiele einzugehen, lassen sich doch zumindest die Verwendung von Canonical-Tags und die richtige Implementierung von Href-Lang als zwei weit verbreitete Problemfelder herausstellen:

  • Canonical: Wird mein Canonical beachtet? Müller empfiehlt die „info:domain.de“ Abfrage zum Test, ob der Canonical-Tag richtig auf einer Seite implementiert wurde. Also z.B. bei Google nach „info:Domain.de/unterseite.html“ suchen. Wird im Ergebnis die Canonical-Seite ausgegeben, hat man alles richtig gemacht und man kann sehen, dass Google de die Information auch verarbeitet hat.
  • Hrflang: Die diesbezüglich größten Probleme ergeben sich immer wieder durch sprachbasierte automatische Weiterleitungen auf verschiedene Länderdomains. Hier sollte man mit x-default arbeiten. 302 ist hier außerdem besser als 301. Derzeit gibt kein offizielles Testing-Tool und es ist bisher seitens Google auch noch nichts geplant, Müller versprach aber, seine Eindrücke mit seinem Team zu diskutieren.
  • Umstellung auf HTTPS: Früher oder später sollte man aus Nutzersicht und dem anstehenden HTTP2-Szenario sowieso umstellen. Da aber günstige bzw. kostenlose SSL-Zertifikate gerade erst aufkommen, ist hier – gerade für kleinere Projekte – keine Eile geboten.

Ari Nahmani und Mike King: Technische Probleme, die SEOs den Schlaf rauben

Die Doppelsession mit dem Israeli Ari Nahmani (CEO / Founder, Kahena Digital Marketing) und dem US-Amerikaner Mike King (Gründer und Digital Marketing Consultant, iPullRank) hatte es in sich. Auch wenn ich nicht alle Punkte bis ins Detail verstanden habe, gab es eine ganze Reihe von Ansätzen und Learnings, die für die tägliche SEO-Arbeit hilfreich sein können. Folgende Punkte habe ich für mich mitgenommen.

Take-aways und Learnings der Session mit Ari Nahmani und Mike King

Ari Nahmani: Das Problem vieler Websites ist nach wie vor die Vielzahl unnötiger Seiten im Index. Gerade Online-Shops tendieren immer noch dazu, wirklich alles für Google freizugeben (z.B. Produktvarianten, Filter, interne Suche). Der Israeli zeigt in seiner Präsentation zahlreiche Praxisbeispiele, wie man das eigene Crawl-Budget bei Google sinnvoll nutzen und unnötige Seiten einer Domain deindexieren kann.

Mike King bricht eine Lanze für die technische Expertise im SEO. Seiner Meinung nach führte der Content Marketing Hype der letzten Jahre die Branche in eine Sackgasse. SEO sei seit jeher eine technische Geschichte und gerade heute seien die technischen Herausforderungen durch Mobile und Apps wesentlich größer.

  • Die SEO Tools auf dem Markt hinken dem technischen Fortschritt und den Entwicklungen der letzten Jahre nicht mehr hinterher bzw. setzen auf veraltete Metriken. Hier sollte seiner Meinung nach dringend etwas getan werden.
  • Beide empfehlen jedem SEO, sich ein grundsätzliches Verständnis der Strukturen des Document Object Model (DOM) anzueignen. Man muss kein fertiger Programmierer oder Entwickler sein, aber sollte sich mit diesen Leuten verständigen können.

Joost de Valk: Large Scale SEO – So bringen Sie Ordnung ins Chaos

Die meisten Leute werden den guten Joost de Valk vor allem durch das gleichnamige WordPress SEO-Plugin Yoast kennen. Demgegenüber weniger bekannt ist, dass der Niederländer auch als SEO-Consultant tätig ist. Und das nicht für gerade kleine Projekte. So hat er u.a. den Relaunch der großen britischen Tageszeitung TheGuardian betreut. Vor diesem Hintergrund berichtete Joost über folgende Erfahrungen im SEO-Umgang mit wirklich großen Seiten und den Erfahrungen, wie diese gemanagt werden können

Take-aways und Learnings von Joost de Valk: Large Scale SEO – So bringen Sie Ordnung ins Chaos

Kernaussage von Yoast: Jeder Webmaster und SEO sollte wesentlich mehr Zeit für das Monitoring der eigenen Seiten aufwenden, um vorhandene Fehler/Probleme aufzudecken und zu beheben.

  • Gerade bei einem Projekt von der Größe wie der Guardian empfiehlt sich die Arbeit mit Server-LogFiles. Dies vor allem auch deshalb, weil er die Crawl-Statistiken der Google Search Console für nutzlos hält. Hier liefern die Serverprotokolle oder SEO-Crawler wie der Screaming Frog oder OnPage.org wesentlich aussagekräftigere Daten.
  • Trotzdem sollte man natürlich schauen, dass die Crawl Errors in GSC möglichst niedrig bleiben bzw. Fehler auch schon lange vor einer Meldung in der GSC bekannt sind.
  • Testen, testen, testen. Bei der Fehlerbehebung und Entwicklung einer Seite immer die Möglichkeit zur Prüfung von Canonicals, hreflang, URLs usw. implementieren.
  • XML-Sitemaps bei großen Projekten sollten durch die interne Such-API generiert werden. Gerade wenn hier mehrere CMS im Einsatz sind (z.B. Shop, Blog) ist dies die wesentlich elegantere und schlankere Lösung.
  • Webanalyse sollte eine Vielzahl an Metriken und Daten berücksichtigen. Neben reinen Traffic-Zahlen empfiehlt der Niederländer hier, dass man langfristig nach einer Lösung sucht, mit der alle vorhandenen Analyse-Daten (auch Facebook, Twitter usw.) getrackt und ausgewertet werden können. Gerade der Fokus auf die Engagement-Analytics aus den verschiedenen Social Media-Kanälen birgt großes Potenzial.

Bastian Grimm und Philipp Klöckner: Crawl Budget Best Practices: 10 Regeln für maximal effiziente Websites!

In dieser technischen Session am zweiten Tag der SMX zeigten Bastian Grimm und Philipp Klöckner, wie man sein Crawl Budget mithilfe von Paginierung, Indexierungsregeln, Facetted Navigation, Sitemaps, Weiterleitungen usw. optimal nutzen kann.

Take-aways und Learnings aus der Session mit Bastian Grimm und Philipp Klöckner

Philipp Klöckner: Viele Marketer vergessen, dass Crawling-Ressourcen seitens Google auch eine wirtschaftliche Komponente haben. D.h. Crawling benötigt den Einsatz von Hardware und man schätzt, dass Google derzeit jährlich etwa 10 Milliarden US-Dollar aufwendet. Auch für SEOs gilt das ökonomische Prinzip.

  • Dementsprechend wird jeder Website ein bestimmtes Crawl-Budget zugeordnet, welches sich an einer Reihe von Faktoren orientiert (PageRank, Qualität und Aktualität des Contents, Relevanz und Nachfrage). Vor diesem Hintergrund erklärt sich auch, weshalb schnelle Websites tendenziell einen Bonus eingeräumt bekommen.
  • SEO für das Crawling nach dem Pareto Prinzip (80/20 Regel) betreiben: Nur die wichtigsten Seiten crawlen lassen. D.h. alle Seiten ohne Traffic bzw. Umsatz sollten gelöscht werden. Diese Schwachstellen per Webanalyse Tools identifizieren und beheben. Schlanke Websites haben in diesem Bereich immer einen Vorteil und sind darüber hinaus auch gegen Google Updates wie Panda geschützt.
  • Folien der Präsentation unter: http://de.slideshare.net/kloeckner/seo-crawl-budget-optimierung?ref=http://www.mso-digital.de/smx-muenchen-2016-recap/

Bastian Grimm präsentiert die 10 häufigsten Fehler, die er in den letzten beiden Jahren im technischen SEO hinsichtlich Crawling beobachtet hat.

SMX Sessions im Bereich Content und SEO-Strategie

Mario Fischer und Marcus Tober: Das Wie und Weshalb – SEO Experimente

Sowohl Mario Fischer (Herausgeber der Website Boosting) als auch Marcus Tober (CEO Searchmetrics) braucht man in der deutschen SEO-Szene sicherlich nicht groß vorzustellen. Insofern durfte man als Zuhörer gespannt sein, was die beiden zum Thema SEO-Experimente zu sagen hatten. Denn zwar wird in der Branche immer wieder gern eine Menge behauptet, viele dieser Tests und Experimente halten aber kaum dem ersten Widerspruch oder einer Gegenprobe stand.

Learnings der Session mit Mario Fischer und Marcus Tober

Mario Fischer betont direkt zu Beginn seines Vortrags, dass bei der Auswertung und Betrachtung von Daten immer ein subjektives Moment hineinspielt. Insofern tendieren die meisten Menschen auch dazu, eine aufgestellte These zu bestätigen, statt sie kritisch zu hinterfragen.

  • Seiner Meinung nach gibt es bei Google nicht den einen Algorithmus, sondern wesentlich wahrscheinlicher sei es, dass mehrere, parallel laufende Rankings mit unterschiedlichen Berechnungen in das Ausspielen der SERPs mit einfließen.
  • Problem vieler SEO-Experimente: Das konkrete Nachvollziehen von Änderungen im Ranking ist insofern schwierig, als dass hier zu viele Faktoren und Einflüsse eine Rolle spielen, die von dem Beobachter aber eigentlich berücksichtigt werden müssten.

Marcus Tober greift die Ausführungen seines Vorredners auf und zeigt zum Einstieg ein zentrales Problem der Datenerhebung im SEO auf. Als Beispiel hier der Suchbegriff [goethe] unter der Prämisse der Gesamtzahl der Wörter, die für einen Seite 1-Treffer relevant zu sein scheinen. Eine entscheidende Rolle spielt hierbei die Wikipedia, die aufgrund ihrer schieren Größe hier die vorhandenen Daten so stark verwässert, dass sich kaum haltbare Aussagen treffen lassen.

  • Searchmetrics vermutet, dass Google der Wikipedia eine besondere Relevanz zuschreibt. Insofern empfiehlt es sich, die Wikipedia aus den Analysen von SEO-Experimenten herauszurechnen.
  • Google scheint verschiedene Signale in verschiedenen Kontexten sehr unterschiedlich zu bewerten. So deutet laut Tober eine Menge darauf hin, dass Google je nach inhaltlichem Kontext bzw. Branche z.B. Links als wichtig bzw. weniger wichtig ansieht. Als Beispiel verweist er auf die vorderen Plätze in den Themenfeldern Finanzen und Gesundheit, die insgesamt weniger Links als die hinteren Platzierungen aufweisen, während dies sich im E-Commerce genau umgekehrt verhält.

Marcus Tandler und Rand Fishkin: Content Republishing

Content ist nur so gut wie der Zeitpunkt und der Kontext, in dem er veröffentlicht wird. Insofern sollte man sich als Marketer sehr ernsthafte Gedanken über das Thema Republishing und Content-Recycling als Teil der eigenen Strategie machen. Marcus Tandler (OnPage.org) und Rand Fishkin (MOZ) zeigten hier verschiedene Ansätze und Möglichkeiten.

Learnings der Session mit Marcus Tandler und Rand Fishkin

Marcus Tandler: Unter der Prämisse, dass Google den relevantesten Index als Ziel ausgegeben hat, geht es im SEO heute nicht mehr um Quantität, sondern um Qualität und inhaltliche Relevanz. Insofern spielt der vielgepriesene holistische Ansatz für Inhalte auch aus seiner Sicht eine gewichtige Rolle:

  • Qualität bedeutet aber eben auch eine schnelle und sauber programmierte Basis für den Content. Was nützt einem der tollste Beitrag, wenn User aufgrund langer Ladezeiten abspringen?!
  • Content-Audit: Welche Seiten produzieren Traffic und Rankings bzw. erhalten externe Verweise? Wo bestehen Potenziale zur Optimierung von Klickraten für Snippets? Beispiel: Beitrag auf karrierebibel.de aus dem Jahr 2012, dessen Optimierung sofort zum deutlichen Anstieg des Ranking führte.
  • Tandler fasst zusammen: On- und Offpage-Faktoren helfen Google dabei, eine Seite bzw. Domain initial einzuschätzen. Aber erst die Daten aus CTR und Nutzerverhalten scheinen in vielen Fällen den Push auf die vorderen Plätze zu bringen. (Stichwort Long Click).

Rand Fishkin: Der zweite Aufritt des Wizard of Moz auf der SMX München 2016. Der US-Amerikaner startet seinen Vortrag mit einem Klick-Experiment. Alle im Saal anwesenden sollen über das mobile Netz [marcus tandler seo] suchen und  das Ergebnis von onpage.org (Platz 6) klicken. Nach nur einer Stunde war das Ergebnis zumindest in der mobilen Suche auf Platz 2. Insofern ein ganz interessantes Ergebnis, als dass Tandler namentlich gar nicht auf der Startseite von OnPage.org erwähnt wird.

  • Wiederkehrende Besucher scheinen einen positiven Einfluss auf das Ranking zu haben. Insofern sollte man sich auch im SEO überlegen, ob man hier nicht die Erfahrungen des Remarketing für seine Zwecke nutzt.
  • Fishkin skizziert vier grundsätzliche Strategien, die beim Republishing zum Einsatz kommen können:
    • a) Semi-Regular Update: Bestehender Content wird in bestimmten Zeiträumen aktualisiert (Beispiel: der zweijährliche Ranking Factors Survey von Moz)
    • b) Localization: Übersetzung des Contents in einer anderen Sprache
    • c) Expanding Content: Datensammlung, die langfristig wächst und somit an Relevanz/Bedeutung gewinnt.
    • d) Distribution Plattform Republishing: Verbreitung der eigenen Inhalte auf anderen Plattformen. Entweder in überarbeiteten, individualisierten Variationen oder im Idealfall mit der Möglichkeit Cross-Domain Rel-Canonical.
  • Folien des Vortrags: The Remarkable SEO Power of Republishing –  http://de.slideshare.net/randfish/the-remarkable-seo-power-of-republishing

Fazit

Die SMX 2016 verdient sich völlig zu Recht ein großes Lob. Fachlich konnten so ziemlich alle Sessions überzeugen. Jedenfalls habe ich genug Anregungen und Stoff zum Nachdenken mitgenommen. Darüber hinaus lebt eine solche Veranstaltung aber natürlich auch vom fachlichen Austausch mit anderen Besuchern und Teilnehmern. Und wenn es dazu noch eine gute Organisation inkl. leckerer Verpflegung gibt, darf man ruhig von einem gelungenen Gesamtpaket sprechen. 🙂

In diesem Sinne: Egal ob SEO oder SEA, auf jeden Fall schon mal den Termin für 2017 vormerken.

Weitere Informationen und Recaps zur SMX München 2016

Sven Giese

Sven ist ein echtes SMART LEMON Urgestein. Er ist seit 2012 bei uns und war der erste Mitarbeiter der Agentur. Als Head of SEO leitet er das SEO-Team und verantwortet in diesem Bereich das Tagesgeschäft. Außerdem bildet er Kolleg:innen in Sachen Suchmaschinenoptimierung aus. Den Großeltern kann man das so erklären: Sven macht was mit Computern. Und mit Nachdenken 😉

SMART LEMON Newsletter

Nichts mehr verpassen! Erhalten Sie aktuelle Infos rund um die Themen SEO, SEA, Web & Social Media.

menu-2