SMX Recap 2018: 3 Teilnehmer, 2 Vorträge, 2 Tage geballtes Wissen
Die bestimmenden Trends & besten Taktiken der Searchbranche für 2018 hier im Rückblick
Vom 20. bis 21.03. hat die SMX München wieder eine konzentrierte Ladung SEA & SEO-Wissen geboten, wie man sie sonst in Europa vergeblich sucht. Internationale Speaker, fünf parallele Tracks zu SEO, SEA & Analytics in zwei Sprachen – als Teilnehmer fällt es schwer, alle Wunschinhalte des großen Programms mitzunehmen, geschweige denn zu verarbeiten.
norisk war mit drei Teilnehmern auf der der SMX vertreten: Judith und Christopher waren selbst Speaker und haben gemeinsam mit Domenic noch zahlreiche Vorträge besucht. In unserem Recap haben wir deshalb versucht, unsere neuen Insights und Eindrücke für Euch zusammenzufassen und die besten Tipps herauszuarbeiten. Der Recap hat keinen Anspruch auf Vollständigkeit, es ist lediglich unser persönlicher Rückblick auf die für uns besten Erkenntnisse.
Wir haben unseren Recap nach Themenbereichen geordnet, damit ihr gleich in fachliche Insights eintauchen könnt, falls Euch SEA oder SEO nicht interessieren. Das späte Erscheinen ist dem Umstand geschuldet, dass wir erst einmal alle Insights in der Breite und Tiefe verarbeiten mussten, so viel neuen Input gab es (und ein paar Krankheiten kamen noch dazwischen ;-).
1. Keynotes der SMX 2018
„Kein Grund zur Panik! Tipps, um die mobile Suche und die Sprachsuche 2018 und in Zukunft zu meistern“ (Greg Grifford)
Greg Grifford zeigte in der morgendlichen Keynote des ersten Tages den Zuschauern im Schnelldurchlauf die wichtigsten Best Practices im Bereich Mobile und Voice Search, um sich zukunftsgerichtet aufzustellen. Seine Bilduntermalung mit Filmszenen aus US-Filmen der 1980er Jahre wie Waynes World oder Kevin allein zu Haus gingen durch die sozialen Medien. Wenn auch aus taktischer Sicht keine neuen Tricks dabei waren, zeigte er anschaulich die wesentlichen neuen Herausforderungen der Suche im Jahr 2018. Hier einige Highlights:
- Erkennen informationaler Suchanfragen mit Fragenformulierung. Ein Blick in die Search Console zeigt, für welche Begriffe mit W-Fragen bereits Rankings im mobilen Bereich bestehen, z.B. “Was ist ein Steigeisen?” oder “Wie bestimme ich meine Gürtellänge?”
- Fokus auf strukturierte Daten und Featured Snippets. Diese vorhandenen Rankings sollte man gezielt mit Markup und optimierter Beantwortung der Fragen auszeichnen, um ein “Position Zero” Ranking zu erreichen, also überhalb der organischen Ergebnisse mit einer Knowledge Graph Box zu erscheinen. Diese Voraussetzung ermöglichen das direkte Auslesen der Snippets durch Sprachassistenten.
- Verstärkter Fokus auf Pagespeed: Nicht oft genug kann das Thema Ladezeit in Zusammenhang mit guter Nutzererfahrung und Sichtbarkeit in Suchmaschinen erwähnt werden. Mehr Details dazu im AMP Vortrag von Bastian Grimm.

(Mit Genehmigung von Rising Media)
Sein oft wiederholtes Mantra lautete: “Don’t Freak Out!” Voice Search ist lediglich ein neues Interface zu Sucheingabe, die grundlegenden Regeln haben sich nicht geändert. Man muss sich nur der neuen Realität von Mobile und Voice stellen, nicht zurückschrecken, und die Userfragen bestmöglich mit Hilfe aller Kontextinformationen beantworten.
AI wird alles verändern – seid ihr bereit? (Johannes Schaback)
Johannes Schaback von Ladenzeile berichtete in einfachen Schaubildern über die Evolution von AI und Machine Learning (ML) im Kontext von Online Marketing. Er erklärte anschaulich, was die Kernursache des Hypes der letzten 5 Jahre im Bereich Machine Learning ist
- Deutlich größere Datenmengen über Sensoren und Onsite-Tracking
- Höhere Rechenleistung für Algorithmen über Cloud-Computing, Parallelisierung von Prozessen, sowie spezialisierten GPU/TPU Prozessorkernen für AI
- Schnellere Berechnung der Backpropagation in neuronalen Netzen. Dieser Prozess beschreibt die rückwirkende Anpassung der Gewichte aller neuronalen Schichten, damit das Modell vom falsch vorhergesagten Ergebnis auf das richtig gelernte Ergebnis “getuned” wird.
- Demokratisierung oder “Commoditization” von Machine Learning durch Clouddienste, Frameworks wie Tensorflow und ihre Abstraktionen. Mit ein wenig Python-Code ist es ohne tiefe Mathematikkenntnisse möglich, eigene Modelle zu trainieren.
Johannes Schaback wiederholte plakativ die berühmten Zitate “software eats the world” und “AI eats software”, um auf den tiefgreifenden Wandel hinzuweisen. Für die Arbeit von SEAs und SEOs stellte er folgende Grundregeln im Zusammenhang mit künstlicher Intelligenz oder AI auf:
- Je stärker Entscheidungen datengetrieben sind, desto höher ist die Wahrscheinlichkeit eines früheren sukzessiven Ersetzens durch Algorithmen
- Je enger der Datenscope dieser Entscheidungen ist, desto schneller wird die Übergabe an Machine-Learning-basierte Systeme erfolgen

Selbstverständlich wurde die kürzliche Entlassungswelle von 250-Zalando Mitarbeitern angesprochen, mit dem Kommentar: “I would rather build the algorithms first and then fire the people – not the other way round.”
Unsere Meinung zu Machine Learning/AI im Bereich SEA & SEO
AI im SEA
- Der Übergang zu einem hohen Automatisierungsgrad wird größere Unternehmen zuerst treffen, da hier die Umsatzhebel größer sind und dedizierte Entwicklerressourcen meist bereits verfügbar sind.
- In kleineren Konten werden die bisherigen regelbasierten Standardtools für Kampagnenmanagement und Bidding nicht den kompletten Leistungsumfang abdecken können. Es werden zunehmend historisch selbstlernende Ansätze entstehen.
- Google wird mit weiteren Produkten versuchen, den Verwaltungsaufwand beim Ausgeben von Media Budgets zu reduzieren, siehe Dynamic Search Ads, Google Shopping, Smart Bidding & Co. Dennoch bleibt der Beigeschmack, dass Google zugleich die Bank im Casino ist.
- Für die 1,7 Mio Lastwagenfahrer in den USA werden ca. 50% der Stellen in der aktuellen Form bis 2025 durch autonomes Fahren wegfallen. Das Berufsbild wird sich also fundamental wandeln. Dies wird auch für den SEA Manager zutreffen: Ständige Weiterbildung, Programmierkenntnisse, Datenmodellierung und Umgang mit neuen Technologien werden die SEA Schlüsselfähigkeiten der Zukunft werden. Mehr dazu im SEA Vortrag von Christopher.
AI im SEO
Da die umfassende On & Offpage SEO Arbeit so viele Faktoren umfasst, ist eine Automatisierung größer 50% nicht vorstellbar. Es werden zunehmend automatisierte Tests, Anomalieerkennung, Empfehlungsalgorithmen, SEO A/B Testvorschläge (siehe Vortrag Tom Anthony) und maschinelle Textgenerierung Einzug finden, aber das gesamte Konzert ist schlichtweg zu umfangreich und veränderlich.
2. SEO Vorträge
AMP != Silver Bullet. Performance Optimisation should be more than AMP (Bastian Grimm)
Bastian von Peakace holte zu einem Rundumschlag zum Thema Pagespeed und Accelerated Mobile Pages (AMP) aus und räumte dabei mit einigen Mythen auf. Er bündelte in seinem Vortrag vier Kernthesen:
- Der mobile Markup-Standard AMP macht Seiten nicht durchgängig schneller, teilweise sogar langsamer, siehe BMW
- Die Browserdirektiven prerender, prefetch sorgen für die eigentliche Beschleunigung und können auch unabhängig von AMP eingesetzt werden
- Kritisch im mobilen Kontext ist die Speedmetrik „Time to first meaningful paint“ und damit aus Templatesicht der „critical rendering path„, da Inhalte unterhalb des sichtbaren Bereichs für den User nicht relevant sind
- Ladezeit-Optimierung umfasst viele kleine Maßnahmen

Weitere Details gibt es im kompletten Deck bei Slideshare.
SEO TESTS ON BIG SITES AND SMALL (TOM ANTHONY)
Tom Anthony stellte eine Fortsetzung des SEO A/B Testing Ansatzes durch das Distilled ODN vor und mischte einige spannende Ergebnisse von anderen Ecommerce-Playern wie Etsy und Pinterest unter. Der Vortrag war eher ein Medley der bisherigen Erkenntnisse in diesem Bereich als ein substantieller neuer Wissenstand zum Thema, dennoch war die Zusammenstellung interessant.
Seine Kernaussage lautete: Wer in der heutigen Zeit OnPage-SEO skalierbar, risikoarm und methodisch betreiben möchte, kommt an SEO-Testing nicht vorbei.
Dem kann man grundsätzlich nur beipflichten, jedoch unter dem Vorbehalt, dass die technische Implementierung eines eigenen SEO-Split-Testing CDN nur für 1% der Websites eine Option ist. Daher bleibt für die meisten nur eine Anmeldung bei Distilled oder das Warten auf eine massenmarkttaugliche Alternative.

International Large Scale SEO (Bill Hunt)
Bill Hunt konzentrierte sich in seinem Abriss internationaler SEO-Projekterfahrung auf zwei elementare Kernaspekte für organische Sichtbarkeit:
- Saubere IP-Detection
- Korrekte Hreflang-Implementierung
Er zeigte unzählige Beispiele großer internationaler Websites, die in einem der Bereiche Konstellationsfehler hatten und dadurch schwerwiegende Einbußen in der organischen Sichtbarkeit verzeichneten. Genannte Beispiele waren hier:
- Falsche Kombination von hreflang und Canonical, dass die AUT auf die US-Seite kanonisierte
- Fehlerhafte IP-Detection, sodass Googlebot – aus Russland zugreifend – ausgesperrt wurde

Erwähnenswert war noch seine Beobachtung in Bezug auf Sitemapfehler, dass Googlebot bei über 1% Fehler in den Sitemap-URLs das Crawling beendet. Es ist also essentiell wichtig, URL-Fehler in der Sitemap zu beseitigen.
Automatisierte Tests About You & Site Performance Zalando (Pascal Landau & Ralf Ohlenbostel)
Pascal Landau von AboutYou stellte in seinem Vortrag eine Tool-Eigenentwicklung für automatisierte Assertiontests vor, womit Annahmen von Sollzuständen bestimmter SEO-Variablen regelmäßig gegen den Ist-Zustand geprüft werden. Das vorgestellte Tool treibt die Idee von Onpage-SEO-Tools einen bedeutenden Schritt in Richtung Individualisierung.
Von der konzeptionellen Seite ist das Vorgehen sehr nachvollziehbar und logisch, die Implementierung ist jedoch für viele Webseitenbetreiber zu aufwändig, wodurch der Wissenstransfer auf die eigene SEO-Arbeit überschaubar ist. Viele Tests lassen sich hingegen mit einfachen Skripten und geringeren URL-Stichprobenmengen realisieren.
Wir haben uns dazu einige Bibliotheken in Python genauer angeschaut. Gspread ermöglicht eine Interaktion zwischen dem Programm und einem Google Sheet. Die Autorisierung wird mit 0Auth2 ermöglicht und ist sehr gut beschrieben. Nachdem man die jeweiligen URLs und entsprechenden Variablen zur Verfügung hat, ist das Scrapen der relevanten Informationen mit Beautifulsoup kein Problem mehr.
Ralf Ohlenbostel von Zalando stellte eine Reihe von Optimierungsansätzen wie der viewport-basierten Image-Compression vor, womit je nach Bildschirmgröße ein unterschiedlich komprimiertes Bild geladen wird. Auswirkungen auf die Conversion Rate lassen sich gut über ein zweites CDN prüfen. So erhalten 50% der Besucher die optimierten Bilder, 50% bleiben auf dem vorigen Zustand. Das verbreitete zusammenführen von CSS oder auch JS Dateien sollte an einigen Stellen überdacht werden. Hierzu führte Ralf das Argument an, dass ein Neukunde nicht alle Teile der zusammengeführten JS Datei benötigt. Würde sie in diesem Fall individueller ausgespielt werden, könnten einige Einsparungen stattfinden. Die Chrome Developer Tools haben dafür ein Tool „Coverage„. Es ist über die Developer Tool-Leiste erreichbar. Ein Klick auf die drei Punkte, anschließend auf „More Tools“ gibt den Zugang dazu frei.
SEO Site Clinic (John Müller)
Mit der wohl begehrtesten SEO Session gab John Muller, seines Zeichens „Webmaster Trends Analyst“ bei Google, wieder einige wertvolle Hands-on Insights preis und brachte alle Zuhörer zum fleißigen Mitschreiben in Laptops und Notizbüchern. Neben Themen wie der Möglichkeit das Hreflang mittels des Tag-Managers zu pflegen oder Problemen bei Skripten, die vor dem Hreflang den Headbereich schließen, waren zwei Themen besonders interessant.
Noindex,follow = Soft 404
Durch eine Zuschauerfrage erklärte John Müller, dass eine URL mit der Auszeichnung „noindex, follow“ nach einer gewissen Zeit als soft 404 gehandelt wird. Dies prüfte er einige Tage vor der Konferenz in den internen Teams. Im Bezug auf Paginierungen und der Tatsache das eine 404 Seite keinen „Linkjuice“ vererbt – ein Thema, welches jeder SEO genauer betrachten sollte.
Besonders spannend war auch die erste Site Clinic. Ein Webshop für Karpfenliegen. Er empfahl eine breitere Ausrichtung um weniger spezifische Kunden zu erreichen. Die nun erstellten Inhalte werden in der breiteren Zielgruppe größeren anklangen finden. So schlug er eine Brücke von einer Karpfenliege zum Linkbuilding.
3. SEA Vorträge
Wir haben im SEA Teil des Recap nur einen kleinen Auszug aller Vorträge zusammengeschrieben. Hintergrund war schlichtweg unsere Vorbereitung auf die eigenen Vorträge.
Google Shopping Feed Best Practices

Gemeinsam mit Productsup referierte Judith über die gesammelten Tricks der letzten 4 Jahre intensiver Shopping Optimierung. In Judith’s Teil standen dabei drei Kernaussagen im Fokus:
a) Datengetriebene Titeloptimierung
Die optimale Zusammensetzung des Produkttitels sollte zwingend die 150 verfügbaren Zeichen ausnutzen. Entscheidend für eine optimiertes Matching der Titel auf wertvolle Suchanfragen ist die Festlegung der Attributsreihenfolge wie Marke, Titel, Kategorie, Farbe etc. Dabei sollte die Priorität der Attribute vor allem datengetrieben sein, um folgende Fragen zu beantworten:
- Welche Attribute lassen sich aus den Topsuchanfragen aggregieren?
- Wie gut performen Suchanfragen mit oder ohne diese Attribute?
- Welche kundenspezifischen Attribute sind aus Suchanfragen erkennbar, z.B. Anlasssuchen, Übergrößenreferenzen oder andere?
Ein idealer Ansatzpunkt zur Titeloptimierung sind Skripte wie das Suchanfragen-Dashboard von norisk zur einfachen und wiederkehrenden Erstellung dieser Daten.
b) Anreicherung der Artikeldaten mit Größenläufen
Ein Klassiker der Google Shopping Topplatzierung ist ein stark reduzierter Artikel mit schlechtem Größenlauf: aus Google-Sicht eine hohe Klickrate, aus Händlersicht ein absoluter Draufzahler. Dies gilt es in Google Shopping zu vermeiden, indem alle relevanten Größendaten des Kopfartikels an jede Variante weitergegeben werden. Implementiert wird dies durch durch einen „Reimport“ der Größendaten und ein Matching auf die Parent-ID.
Liam Wade setzt – siehe weiter unten – auf einen ähnlichen Ansatz der Farblaufaggregation, wir sehen aber die Größenlaufeinschränkung per Filter als die direkter relevante Maßnahme für Kosteneinsparungen.
c) Prädiktive Bewertung aller Artikel nach Kosten und erwartetem Umsatz

Meist haben 30% der Shoppingartikel keine Kosten und nur ca. 3% auch Umsatz: Wie bewertet man also diese (fiktiven) 67% der kostenrelevanten Artikel? Es ist definitiv der falsche Weg, eine fixe MaxKosten-Regel zu definieren, wenn man zugleich Socken und Anzüge oder Schrauben und Mähroboter verkauft – es bedarf daher produktindividueller MaxKosten.
norisk hat diese Berechnung in ein AdWords Script ausgelagert, welches neben der Standard-KPIs wie Kosten, Umsatz & CPC folgende Faktoren in Berechnung aufnimmt:
- Bisherige Kosten, Umsatz und ROAS
- Produktpreis
- Historische Durchschnittsmenge
- Diskontierung des erwarteten Umsatzes bei größerer Klickmenge und hohem Artikelpreis
- Target-ROAS, welcher für die Shoppingkampagne erreicht werden soll.
Das Script „ShoppingExludebyROAS“ berechnet auf Basis der Inputwerte einen einfachen „keep“ oder „exclude“ Output-Wert, welchen man in seine Produktdatenplattform auf ein Custom Label im Shoppingexport mappen kann, um die „exclude“ Artikel pro Kampagne im Inventarfilter auszuschließen. Das Skript gibt es hier zum Download: gist.github.com/norisk-marketing/344031c4fa360101e87f727dc9fef16a
Advanced Shopping Strukturen: Making Better Decisions (und Liam Wade)
Liam Wade hatte einen ähnlichen Rundumschlag zum Thema bereits zur HeroConf 2017 in London gehalten und wurde im Anschluss von Martin Röttgerding für einen SMX Talk vorgeschlagen. Dank Martin durften wir also in den Genuss der Ansatzvielfalt werden.
Liam stützte sich im Wesentlichen auf das Konzept von Martin’s Shoppingstruktur-Partition nach Priorität und Negative Keywords – siehe auch unseren Post zu einem Negative Sync via Scripts – eröffnete jedoch eine Vielzahl neuer Dimensionen, nach welchen man Shopping Queries sinnvoll in Intentgruppen teilen kann. Zugrunde liegt immer das gleiche Prinzip, nach dem man die drei Kampagnenprioritäten nutzt, um Upper-, Mid- und Lower-funnel in verschiedenen Kampagne (und damit budgetär) zu trennen. Die Kombination mit Negatives ermöglicht eine überschneidungsfreie Aussteuerung und nennt sich dann auch „Query Sculpting„.

Folgende Ansätze waren die nennenswertesten oder interessantesten:
- Produktattribute wie Literangaben, Materialien, Größenmaße oder generellen Größenangaben bzw. Zahlen
- Automatisierte Extraktion von Attributen: Hier werden häufig vorkommende Zweiwortbegriffe wie „black long“ mit hoher CR in eine Negative-Liste der generischen Kampagnen gesetzt.
Im zweiten Teil seines Vortrags stellte Liam einige spannende Feedoptimierungsansätze vor, um die Bewerbung weniger performanter Artikel mittels Custom Labels einzuschränken. Zum Schluss zeigte er den geschickten Einsatz von Wiederkehrer- oder RLSA-Listen in Search, um alle drei „Schichten“ der Targetingoptimierung gleichzeitig zu verwenden:
- Query Sculpting. Die Trennung von Suchanfragengruppen nach hoher oder niedriger Kaufintention
- Kontextuelle Feeddaten
- Margenclustering. Intervallskalierte Margenwerte in eine Ordinalskalierung umwandeln, um die Werte 0-100% in 5 Schritten abbilden zu können.
- Farbläufe. Auf Basis aller verfügbaren Varianten eines Kopfartikels werden die Variantendaten auf jedes „Geschwister“ übertragen, um Artikel mit geringen Farbverfügbarkeiten abzuwerten.
- Möglichst spezifische Zielgruppen und vorherige Engagementinformationen. Hier ist v.a. die Integration von Facebook-Kampagnendaten und deren Präferenzgruppierungen spannend.
In Summe lässt sich sagen, dass der Vortrag das wohl aktuell am weitesten entwickelte Shopping-Targetingmodell gezeigt hat, das man momentan weltweit findet. Chapeau Liam!

Mehr Kontrolle, weniger Fehler: Skalierbarkeit von großen Accounts mit Adwords Scripts (Marcel Prothmann und Christopher)
Marcel von Peakace und Christopher schlossen sich zusammen, um ihr gemeinsames AdWords Scripts Wissen im Zusammenhang mit größeren Konten und dem Umgang mit Limits für die Zuhörer zu bündeln. Der Vortrag war in zwei Teile gesplittet:
- Sechs konkrete Skripte zu typischen Problemen bei größeren (und vielen Accounts)
- 10 Tech-Tips für Workarounds

Hier die Highlights der Takeaway-Skripte:
- Merchant Center Monitoring v2. Mit über 700 Zeilen Code und 2 Jahren Arbeit kann dieses Skript alle wichtigen Fehlerfälle über alle Accounts hinweg in ein Spreadsheet loggen und eine Alert-Email mit differenzierten Schwellenwerten schicken. Es ist eine Weiterentwicklung einer älteren ShoppingMonitoring-Skript-Version, welche wir bereits 2017 in unserem Blog vorgestellt haben. Der vollständige Code ist hier in unserem norisk github-gist erreichbar.
- Search Query Processing. Marcel stellte einen sehr innovativen Ansatz vor, um OHNE Feeddaten Suchanfragen mittels NGram-Analyse und linearer Regression in gute neue Keywords und potentielle neue Negatives zu klassifizieren, indem für alle ein erwarteter Umsatz/Klick vorhergesagt wird. Zur Vorhersage wird die Google Prediction API verwendet, um die lineare Regression auf Basis der mehreren abhängigen Variablen zu rechnen. Wir testen das Skript aktuell und sind sehr gespannt. Hier das Skript zum Download: https://bitbucket.org/peakace/smx2018-scripts/src
Die nachfolgenden Tech-Tips zeigten auf, wie man die Einschränkungen der AdWords Scripts Laufzeitumgebung geschickt umgehen kann. Christophers Best Practices wiederholten zum Teil einige Tipps, die bereits beim SEA PPC Meetup @norisk vorgestellt wurden, vorrangig:
- Stündliches Scheduling und Jobsplitting über Labels, Listenabgleich oder Log-Datenbank
- Abspeicherung des Abarbeitungzustands über Google Spreadsheets oder Big Query
Für alle Interessierten gibt es die Folien bei Slideshare. Spannend war die abschließende Q&A-Session mit vielen Fragen zum Thema Automatisierung im SEA. Hier die beliebtesten Fragen und unsere Antworten:
- AdWords Scripts Weiterbildungsquellen für SEAs. Lernt zunächst Javascript-Grundkenntnisse wie Datenstrukturen, if-statements, for-Loops etc. über codecademy.com, ein gratis Onlinetutorial. Die wichtigste Hürde zum Verfassen eigener Skripte ist anschließend das Verständnis der Iteratoren-Objekte – diese sollte man gründlich studieren, denn damit werden alle Operationen an AdWords-Entitäten ausgeführt.
- Verlieren SEAs bald ihren Job? Die Frage spielt auf die kürzlichen Zalando-Entlassungen sowie die Thematisierung in der AI-Keynote von Ladenzeile an. Grundsätzlich lässt sich festhalten, dass sich die inhaltliche Aufgabenzusammensetzung von SEAs stetig verändern wird: Weg von repetitiven Excelaufgaben hin zu Datenflussteuerung und Anforderungsmanagement. Ein Verständnis wird in Zukunft immer essentieller, um die Ursachen von Ereignissen (meistens schlechten) schnell zu erkennen und ggf. selbst zu beheben. Diejenigen SEAs, die sich mit stetiger Weiterbildung im Bereich Technologie und Datenanalyse beschäftigen, haben die besten Chancen, noch wertvoller als bisher zu werden.

4. Analytics Vorträge
From Digital to Predictive Analytics: Mind the Gap! (Philipp Winter)
Philipp Winter adressierte in seinem Vortrag den Übergang von beschreibender oder deskriptiver Webanalyse zu prädiktiven Auswertungen mittels Machine Learning-Ansätzen. Erwähnenswert war in diesem Vortrag vorrangig die Vorstellung des Tools KNIME. KNIME ist eine Freemium-Software, welche es dem Analysten mittels einer graphischen Drag&Drop Oberfläche und Standardconnectoren zu Google APIs (inklusive aller OAuth2 APIs) erlaubt, ohne Programmierkenntnisse eine komplette Data-Pipeline aufzubauen.
Dabei sind folgende Schritte notwendig:
- Einfache Autorisierung zu allen Google APIs mittels OAuth2
- Konfiguration der Datenabfragen
- Darstellung der Datenoutputs mit einer Charting-Engine, z.B. Sunburst-Diagramme

Zum Abschluss des Vortrags wurde ein konkrete Predictive Analytics Beispiel überflogen, wie man aus Slashdot Foreneinträgen einen Sentiment-Analyse erzeugen kann. Leider fehlte hier die Detailtiefe zur konkreten Nachahmung.
Search Marketing Tweaks for Google Tag Manager and Analytics (Simo Ahava)

Simo Ahava ist der unangefochtene König, wenn es um den intelligenten Einsatz von Google Tag Manager für Reportingzwecke geht. Sein Blog ist beste Anlaufstelle weltweit – unsere Meinung – für Hands-on Tutorials von konkreten Analytics-Herausforderungen.
Simo’s inhaltlicher Fokus lag in der differenzierten Messung von Content Engagement. Dabei definierte er Content umfassend als jegliche Art von Inhalt. Hier sein vollständiges Deck auf Slideshare.
Simo beschreibt sechs Schichten der Content Engagement-Messung von Sichtbarkeit bis zu langfristigen Zielen, mit jeweils konkreten Userinteraktionen:
- Sichtbarkeit. Aktive Sichtbarkeit statt Taböffnung im Hintergrund
- Interaktion. Touchinteraktion, Markieren oder Kopieren von Text
- Active session time, SERP-Bounce-Back Time
- Sowie weitere

Nach einem “Rant” – neudeutsch für sich aufregen – über die Willkürlichkeit der Sessiondefinition und der unfairen Limitierung von 20 Custom Dimensionen und 5 Content Grouping Variablen, folgten konkrete Tipps zur Messung oben genannter Engagement Interaktionen. Hier die Highlights aus unserer Sicht:
- Scrolltiefe tracken
Gerade bei umfangreichen Zielseiten ist die Interaktionstiefe eine unabdingbare Metrik zur Bewertung der idealen Anordnung und Länge. Simo verwies auf seinen detaillierten Beitrag von 2017 zu diesem Thema.
- Structured Data als Content Dimension
Oft sind strukturierte Daten nicht im Datalayer vorhanden, somit nicht direkt an Analytics übergebbar. Mit ein paar Zeilen Javascript-Code ist es möglich, diese Informationen als Content Grouping Variable an Analytics zu übergeben:

- Artikelattribute als Content Dimension
Ein interessanter Denkanstoß war die Aggregation von Blogartikeln nach Länge oder Bildanzahl, um die oft gestellte Frage in Angriff zu nehmen, ob längere Artikel oder mehr Bilder sinnvoll sind.
- SERP Bounce-Time
Dieser von SEOs oft zitierte Rankingfaktor ist für viele Searchmarketer eine Grauziffer. Es beschreibt die Zeit zwischen Besuch einer Zielseite von einer Suchmaschine und der Rückkehr zur Suchergebnisseite, wobei eine kurze Zeit als negatives SEO-Signal interpretiert wird. Simo nutzt für seine Implementierung eine kleine Manipulation der history-API des Browsers, um diesen Eintrag zu entfernen und dann zeitlich zu messen.

Die genaue Implementierung findet ihr ab Folie 93 seines SMX-Decks. Darüber hinaus gab wie immer noch viele weitere Hands-on Tipps, welche im kompletten Deck zu lesen sind.
5. Fazit
Mit den gesammelten Eindrücken von drei Teilnehmern werden wir erst mal einige Monate benötigen, um alle Ideen selbst für unsere Projekte zu testen und eigene Erkenntnisse zu sammeln.
Ein Besuch der SMX lehrt einen Search Marketer vor allem, dass man noch lange nicht das Ende der Fahnenstange erreicht hat. Es gibt einfach zu viele spannende Lösungsansätze und Fragestellungen, die man sich im Alltag oft noch nie gestellt hat.
Kurzum: Über den eigenen Tellerrand schauen führt zu vielen neuen Ideen und bereichert den SEA & SEO-Alltag!
Wir freuen uns auf die nächste SMX und sind bestimmt auch 2019 wieder dabei!