SEACamp Hannover 2018: RECAP

SEACamp Hannover 2018: RECAP

SEAcamp Recap norisk Group

Am 2.11. fand die 8. Ausgabe des SEAcamp in Hannover statt. Mit 280 Teilnehmern war es laut Veranstalter das bisher größte SEA Camp: Die „kleine“ Schwester SEAcamp Hannover hat damit das Original in Jena abgehängt – vorrangig wegen der größeren Kapazität der neuen Veranstaltungslocation Novotel  und der Platzbeschränkung in Jena.

Für die norisk Group war es die ingesamt 7. SEAcamp, wir sind quasi Veteranen der „zweiten“ Stunde und damit seit 2014 durchgehend dabei. Vertreten waren diesmal Domenic & Christopher (meine Wenigkeit / Autor) mit einem Vortrag zum Thema „SEA-SEO-Verzahnung“ (mehr dazu in Abschnitt 6). In der morgendlichen Pitchrunde ab 9.30 Uhr wurden 21 Sessions vorgestellt und nach Handzeichen in drei Räume unterschiedlicher Größe bzw. parallele Sessions eingeplant. Der Sessionplan sah wie folgt aus:

 

Bevor es in die Einzelsessions ging, fand die Vorstellung der Highlights der Suchanfragenchallenge stattwelche auch dieses Jahr extrem amüsant waren. Hier werden die ungewöhnlichsten Broad Matches und Suchanfragen gekürt. Dies ist unser persönlicher Favorit. Weitere Highlights sind auf Twitter #seacamp zu finden:

 

Nun zu den Sessions und den wesentlichen Insights – zumindest aus unserer Wahrnehmung. Es waren viele Erkenntnisse für die tägliche Arbeit und neue Projekte dabei, wodurch der Wert der SEAcamp für uns erneut untermauert wird. Im Vergleich zu anderen Konferenzen (wie SMX, PPCMasters und HeroConf) hat die SEAcamp konstant das aus unserer Sicht beste „Preis-Leistung-Verhältnis“ mit einem hohen Anteil an direkt umsetzbaren Praxistipps.

 

1. Dreizehn böse Fehler in Google Analytics und GTM (Christian Ebernickel)

 

In der ersten Session des großen Saals zeigte Christian Ebernickel 13 fiese Setupfehler in  Google Analytics, die er im Rahmen seiner Tätigkeit als Webanalyse Berater gesammelt hatte. Die Session war sehr gut besucht und das zu Recht: Christian gewann 2017 den Google Analytics Challenge Award und war auch im Vorjahr in Hannover als Speaker vertreten.

Christian begann mit einer 16-Punkte Checklist für einen sauberen Analytis-Basissetup. Darunter tummeln sich bekannte Standards wie das Anlegen von drei Datenansichten oder die Nutzung von Enhanced Ecommerce, aber auch seltenere Tipps wie ein Lowercase Filter für Kampagnenparameter oder das Ergänzen von internationalen kleinen Suchmaschinen zur Reduktion der Other-Channelgruppierung. Hier die 16 Punkte in der Übersicht:

Diese Settings sind Pflicht, aber kein Garant für spätere Lückenlosigkeit. Daher im Folgenden eine ausgewählte Kommentierung der für uns interessanten Fails. Die komplette Liste lässt sich Christian’s Beitrag inklusive Folien entnehmen.

 

#1 Tracking Optin Layer: Zwang zur Interaktion auf der ersten Seite

Hier stellte Christian im Projektkontext wiederholt fest, dass eine Kombination von GA-Trackerblockierung und „dezentem“ Optin-Layer zu massiven Problemen in der Auswertbarkeit führt, da beim zweiten Seitenaufruf die Channelinformationen wie utm_source / medium nicht mehr zur Verfügung stehen. Daher muss bei einer konservativen Tracker-Optin Lösung unbedingt (!) die Interaktion mit dem Layer auf der ersten Seite erzwungen werden.

#2 Messung Google Ads vs. Sitzungen „Ad Click-Session %“

Nicht selten weichen die – durch Redirects gemessenen – Google Ads Clicks von den Analytics-Sitzungen des Typs google / cpc ab. Christian empfiehlt eine Custom Metric, die beide Werte ins Verhältnis setzt und damit die Abweichung erfasst. Je höher die Abweichung, desto dringender der Bedarf zur Prüfung.

#3 Fehlende Guidelines zur Befüllung der Kampangnenparameter

Je internationaler ein Projekt, desto mehr Dienstleister wirken pro Kanal mit. Das Ergebnis ist meist ein Potpourri verschiedener Source / Medium / Campaign Parameter und damit ein heterogener Datenbestand. Einmal in Analytics falsch eingegangen, ist die Bereinigung in separaten Reports extrem mühsam. Daher ist ein Monitoring und eine Nachkontrolle eines Parameter-Standards bei größeren Projekten essentiell.

#4 Fehlende Guidelines zur Benennung von GTM Elementen

Hier lohnt sich sich ein durchdachter Standard zur sprechenden Benennung von Tags, wie z.B.: „page_criteo_3_Productdetail“. Damit bleibt die Wartbarkeit größerer Strukturen gewährleistet. Des Weiteren rät Christian dringend zur Nutzung von Ordnern, um nach Vendor zu gruppieren.

#5, #7,  #10:  Fehlendes GTM Berechtigungskonzept, globaler Master-Container

Christian berichtete von einem globalen Projekt mit über 200 Ländern, in welchen verschiedene Länderagenturen Veröffentlichungsrechte hatten. Nach Publikation eines Drittanbieter-Tags – versehentlich auf allen Seiten – wurde im Nachgang ein Formulartracking aktiviert. Dadurch flossen 7 Tage lang sensible Kundendaten an einen externen Dienstleister ab.

Die Moral von der Geschicht: Seid strikt mit Berechtigungen und noch strikter mit Veröffentlichtungsrechten. Michael Janssen vertritt den plakativen Standpunkt „Keine Ahnung, keine Zugriff“. Christians Empfehlung zur Vermeidung der Ein-Container-Strategie ist es, eine sinnvolle Struktur für GTM-Container entwerfen. Anmerkung: Allerdings kann eine Multi-Container-Strategie bei globalen und zentral gesteuerten Projekten zum Hindernis werden, daher empfahl Dr. Gunther Gabriel auf der Analytics Summit am 7.11. eine hybride Strategie, in welcher von vielen dezentralen Test-Containern die Änderungen von einem Admin per gtmtools in den Zentralcontainer importiert werden.

Weitere wertvolle Tipps, die wir an dieser Stelle nicht weiter ausführen, findet Ihr hier: in Christians Folien.

#6 Veröffentlichung von unbemerkten Änderungen, Zwischenversionen werden mitgenommen

#8 Debug Mode wird nicht verwendet.

#11 Fremde Tag Container im GTM vermeiden

#13 Personenbezogene Daten in URLs, bin hin zur Aufforderung zur Löschung von Google

 

FAZIT: Christian lieferte viele praxisnahe Tipps zu GA und GTM. Ein erfrischend informativer Vortrag außerhalb des SEA-Kerns.

2. Anzeigen-Automatisierung mit strukturierten Daten (Stella Meyer)

 

Stella von myToys / starkes.marketing zeigte in einem sympathischen und praxisorientierten Vortrag, wie man tagesaktuelle Wetterdaten pro Stadt über Ad Customizer in Google Anzeigen bringt. Die Wetterdaten werden von einer nativen Google Sheetsfunktion namens „ImportXML“ abgerufen, welche wiederum einen OpenWeatherMaps API Call ausführt und den XML-Response per Xpath-Anweisung gefiltert in einer Zelle ausgibt.

Stellas Setup geht einen Schritt weiter in die konkrete Anzeigenverzahnung, als die bisher bekannten Skriptbeispiele für wetterbasierte Automatisierung:Google deckte eher Bidding oder Pausierung ab, Fred Vallaeys zeigte im März 2018 die Datenaktualisierung von OpenWeatherMaps zu Google Sheets mittels Apps Scripts, unabhängig vom konkreten Anwendungsfall.

Ein beispielhafte Anzeige bei Sonne, 27 Grad würde dann lauten: „Schuhe für sonnige Tage“ – wobei „sonnige Tage“ der Ergebniswert einer verschachtelten Wenn-Dann-Funktion für verschiedene Wetterszenarien ist. Hier kann man kreativ die verfügbaren Wetterdaten wie allgemeine Wetterlagen (6 Kategorien), Temperatur, Niederschlag etc. in Anzeigenbotschaften integrieren. Stella fragt in ihrem Demo-Googlesheet die Daten der 30 größten DE-Städte täglich ab und wandelt die relevanten Wetterdaten in Anzeigenbausteine um.

Die Einbindung der Sheetdaten erfolgt über einen Geschäftsdatenfeed vom Typ Anzeigenanpassungsdaten, welcher alle sechs Stunden aktualisiert werden kann. Im Google-Sheet ist es in den Tabelleneinstellungen möglich, die Formelberechnung und damit den API-Call stündlich zu erzwingen, wodurch die Daten aktuell gehalten werden können und die Apps-Skript Aktualisierung überflüssig wird.

Die Zuordnung der Wetterdaten zum Geotargeting erfolgt über den Wert „Target Location“ im Geschäftsdatenfeed. Die Werte müssen den Standard-Geowerten von Google entsprechen, welche z.B. auch für Geo-Modifier genutzt werden. Bei einer Granularität von 30 Stadtabfragen kann bei DE-weitem Targeting damit nicht jede Region mit einer Wetteranzeige angesprochen werden. Hier kann die Stadtanzahl nach Belieben erweitert werden, zumindest soweit es im Rahmen der Abfragelimits der API (60/min) möglich ist.

 

Zum Abschluss betonte Stella, dass viele weitere Anwendungsfälle möglich wären und nannte dynamische Produktdaten als Beispiel. Wir bei norisk Group nutzen aggregierte Produktdatenwerte wie minPrice, maxDiscount und numberOfModels für feedbasierte Kampagnen sowie zeitliche Variablen für Saisonanzeigen, um Jahreszeit, Monat und Wochentag in Anzeigen zu verwenden.

 

FAZIT: Erstklassiger Vortrag – eine einfache Lösung mit (hoffentlich) großer Wirkung auf die Performance.  Hier der Link zu Stellas Folien und Ihrer<Erklärungsseite auf starkes.marketing. Wir sind bereits mitten in der Umsetzung und werden eine Kombination aus Wetterdaten und Jahreszeitenwerten einsetzen.

 

3. Amazon Nerd Alert: AMS Praxis Hacks (Florian Nottorf)

 

Florian Nottorf führte die Zuhörer des großen Saals durch einen DeepDive von Amazon Sponsored Ads mit Schwerpunkt auf Kampagnenstruktur und Bidding. Da Amazon Ads in 2018 die 500 Mio. Spend Marke knacken wird und immer mehr Ecommerce-Budgets von Google zu Amazon wandern, war der Vortrag gut besucht. Nach kurzer Einführung schränkte er den Fokus auf Performance-Taktiken mit kontinuierlicher Salesmaximierung und  KUR-Vorgabe ein, auch ACoS in der Amazon-Welt genannt.

Der Hauptkampagnentyp Sponsored Products verteilt sich auf zwei Ausprägungsformen:

1. Autokampagnen: Bei diesem Typ ist ähnlich wie in Google Shopping keine Keywordbuchung möglich, dafür aber die Angabe von Negative Keywords. Gebotsseitig ist nur ein maxCPC pro Adgroup möglich, jedoch keine individuellen Gebote.

2. Manuelle Kampagnen: Dieser Typ erlaubt das explizite Hinzufügen von Keywords und beruht auf einer Verzahnung von Produktdaten und Keywordtargeting.

Florian verriet einen ProTip in der manuellen Kampagneneinstellung, die Option „Gebot+“ oder BidPlus zu aktivieren, um eine Art Enhanced CPC mit Gebotsspielraum zu ermöglichen: Wenn eine Kampagne nicht das ACoS-Ziel erreicht, sollte man eher das Basisgebot senken, nicht (!) Gebot+ deaktivieren. Gebotssenkung ist ebenfalls die bessere Maßnahme bei beschränkten Budgets, da Amazon aktuell noch keine gleichmäßige Tagesaussteuerung des Budgets unterstützt.

PPC Optimierung nach Performance-Strategien

Als Gründer von Adference kam Florian beim Thema Bidding voll in seine quantitative Domäne: Er zeigte an einer Beispielkalkulation, wie man die maximal tolerierbare KUR bei gegebenen Parametern berechnet, oder in Amazon-Sprech: den max-ACoS nach Gewinn. Eine regelbasierte Steuerung funktioniert im Headbereich mit ausreichend Daten, allerdings ist die Steuerung im Mid & Longtail nicht abbildbar.

– Die Standard CPC-Berechnung nach Max CPA folgt folgender Formel: MaxCPC = CVR * CPA * Uplift

– Für Ecommerce ist eine Anpassung notwendig: MaxCPC = CVR * Warenkorb * Acos-Ziel * Uplift

Mit dieser grundlegenden Formel lässt sich das optimale Gebot berechnen, allerdings müssen Warenkorb und Conversion Rate geschätzt werden. Hier kommt Machine Learning mit Regressionsmodellen ins Spiel. Eine zeitliche Komponente im Modell erlaubt es auch, auf Saisonalitäten und Trends zu reagieren.

Als weiteren ProTip zeigte er, dass man Gebotsanpassungen bei Headline Search Ads und Sponsored Ads nutzen sollte, um analog mit Bid Modifiern die Basisgebote anzupassen. Da diese Anpassungen z.B. für die Bereiche Oben vs. Andere auf Basis gesetzt werden können, empfiehlt Florian die Berechnung nach ACoS-Verhältnis von Oben vs. Andere – oder einfach grob das Verhältnis schätzen.

Den Abschluss bildete ein Kurzausflug in das neuere Format Sponsored Brands, also ganz oben über den Produktergebnissen links und ganz unten. Hier gibt es eine spannende Einstellung namens Automated Bidding, die es vorsichtig zu beobachten gilt, aber einen Versuch wert ist.

FAZIT: Informative Amazon Ads Session mit etlichen Praxistipps, eine Bereicherung zum klassischen Google SEA Fokus.

 

4. Google Analytics „Praxis-Hacks“ (Markus Baersch)

 

Markus Baersch zeigte einige Hacks rund um Analytics und den Google Tag Manager auf. Die vielen Verweise, Code-Beispiele und Anleitungen luden zum direkten Umsetzen ein. Für alle Ungeduldigen geht’s hier direkt zu den Folien.

Den Anfang machte die Erfassung von Interaktionen mit Telefonnummern und E-Mail-Adressen. Noch immer scheint es viele Online Marketer zu geben, die solch wichtige Events nicht tracken. Im Anschluss ging er zum Thema Scroll-Tracking über. Bereits beim ersten Aufruf mittels Scroll-Tracking erreicht man bei prozentualer Betrachtung 20-30%. Hier erwähnte Markus, dass prinzipiell die Beachtung der Einstellung „Treffer ohne Interaktion“ wichtig ist. Bei einem Tracken der Scrolltiefe wäre so direkt beim Aufruf eine Interaktion durchgeführt. Das wirkt sich direkt auf die Absprungrate aus. Daher sollte hier der Wert „False“ verwendet werden. Besser ist es jedoch, direkt auf einen Element-Sichtbarkeits-Trigger zu setzen –  dieser reagiert auf ein CSS-Element und bildet damit die inkrementelle Interaktion besser ab.

Ein sehr spannender Ansatz ist das Erfassen der Textlänge. Markus beschrieb eine Implementierung, die den gesehenen Text erfasst. Als benutzerdefinierte Dimension übergeben, lädt es zum Analysieren ein. Koppelt man dieses Wissen mit einer Klassifizierung in Seitentypen oder Kategorien, ergeben sich spannende Ansätze zum Optimieren des eigenen Contentpools. Der Code findet sich hier in Github: bit.ly/gtm-textlength

 

Ein essentielles Thema in der Webanalyse sind UTM Parameter. Für Performance Marketer notwendig, gibt es jedoch immer wieder Stimmen, die aus ästhetischer Sicht ohne sie arbeiten möchten. Dafür hat Markus den Callback-Parameter vorgestellt: Der Aufruf erfolgt mit UTM Parameter, die Implementierung basiert auf einer Beschreibung von Michael Janssen, einer weiteren Analytics-Koryphäe. Sobald die Seite geladen wird, entfernt die Funktion die Parameter im Browser.

Die Behauptung, sofort 10% mehr SEO Traffic zu generieren, sorgte auf der SEAcamp 2018 für den ein oder anderen Schmunzler. Doch tatsächlich zeigte Markus wie Traffic von Suchmaschinen, welche als Referral klassifiziert werden, korrekt dem Medium Organic zugeordnet werden kann. Die Anleitung findet ihr im Blog von Markus Baersch . Im SEO gibt es seit geraumer Zeit die Diskussion über die Integrierung von Meta-Tags wie einem Canonical oder Hreflang mittels dem Google Tag Manager. Auch Markus sprach es an, rät jedoch davon ab.

Zum Schluss sprach Markus über AJAX und lieferte den komplexesten und zugleich spannendsten Praxishack. Er zeigte eine pragmatische Methode, um Elementänderungen zu beobachten und trackbar zu machen. So kann zum Beispiel das erscheinende Overlay eines Kontaktformulars getrackt werden. Hierfür nutzt er das Event „addEventListener“ und erzwingt eine CSS-Veränderung, die dem Nutzer zwar verborgen bleibt, jedoch trackbar ist. Verwiesen hat Markus hier auch auf den Blogeintrag den Analytics-Großmeisters Simo Ahava.

 

FAZIT: Ein erstklassiger Analytics Vortrag – von direkt umsetzbaren Beispielen bis hin zu komplexen Problemlösungen. Das komplette Deck findet ihr hier in Markus‘ Slideshare Account.

 

5. Game Changer CSS: Mit Strategie das Einsparpotenzial bestmöglich ausschöpfen (Tobias Blask, Mareike Geidies, Eva Brachat)

 

Das Thema Comparison Shopping Service oder „CSS“ ist seit der Einführung des Google SpendMatch-Programms zur Jahresmitte 2018 das heißeste Thema im Google Ads Ecommerce-Umfeld. Die ersten Meldungen im Juli klangen zu gut, um wahr zu sein – anfängliche Skepsis und Bedenken waren sehr groß. Statt aber vorrangig den vom EU-Urteil betroffenen Preisvergleichern zu helfen, wurde zusätzlich ein neues Geschäftsmodell geschaffen: Biddingtoolanbieter und SEA-Agenturen ziehen Produktsuchseiten hoch, die nur im Fall eines Klicks auf „Von {Portal}“ Zugriffe erhalten und anderweitig Kostenersparnisse über 30% realisieren können.

Der Vortrag im großen Saal von Tobias Blask, Mareike Geidies (Adference) und Eva Brachat (Webworks) handelte von kollektiven Erfahrungswerten aus drei Monaten Arbeit mit dem eigenen CSS:

  • Wie sieht der Setupprozess aus?
  • Welche Accountstrategien zur Migration gibt es?
  • Welche Performance zeigte sich pro Strategie?

 

Tobias begann den inhaltlichen Teil mit einem Euphorie-Dämpfer: Die bisherige SpendMatch-Staffelung mit Kickbacks bis zu 30% wird ab 1.11. auf maximal 5% reduziert und ab 31.12. abgeschafft. Das fette Jahr ist also vorbei. Dauerhaft bleibt aber der 20% Margenvorteil bei Einbuchung über ein separates CSS, anders gesagt: Bei einem Gebot von 1 € über Google Shopping Europe (GSE) werden 0,2 € Marge an Google abgegeben, es bleiben also nur 0,8 € für die Auktion. Im Umkehrschluss kommt ein 1,20 € Gebot über CSS einem 1 € Google-Gebot gleich. Daraus ergeben sich die beiden Optionen: 1) gleiches Gebot über CSS und mehr Volumen oder 2) Gebotsreduktion über CSS und CPC-Einsparung.

Für eine Accountstrategie zeigte Mareike folgende Varianten:

  • Google Shopping Europe (GSE) only
  • Ein-Account-Strategie oder Komplett-Umzug auf CSS
  • Zwei Account Strategie
    • Switch des bestehenden Accounts zu CSS und neuer GSE Account
    • Bestehender Account in GSE und neuer CSS Account in MCA
    • GSE und CSS Kampagnen in einem Account

 

Ein-Account-Strategie: Implementierung, Vorteile und Nachteile

Grundlage ist Assoziation oder das Umhängen des bestehenden Merchant-Center Kontos zu einem neuen CSS-MCC, welches als CSS-Partner verifiziert ist. Der akkreditierte CSS-Partner muss eine frei zugängliche Produktsuchseite für einen Preisvergleich erstellt haben.

Der Prozess der Account-Umstellung gestalte sich in der Koordination und Dokumentation sehr mühsam und hemdsärmelig. Hier wird klar, dass Google Europe schnell einen Prozess zusammenschustern musste:

  • Der Händler muss eine Email mit festem Text an den CSS Partner schicken
  • Der CSS Partner erstellt von dieser einen Screenshot und übertragt diesen in PowerPoint
  • Merchant Center ID werden in ein Google Sheet eingetragen, mit Referenz zu Foliennummer der Freigaben (kaum zu fassen :-))
  • Es muss eine Verzichtserklärung bestätigt werden, dass Google keinen Zugriff mehr auf die Accounts hat, da diese nicht mehr über Google laufen
  • Erst im Anschluss erfolgt die manuelle Freigabe

 

Der wesentliche Vorteil besteht in der ausbleibenden Verdoppelung der Struktur und damit der Einfachheit. Nachteilig ist vor allem der Historienverlust und die Ungewissheit während der Übergangsphase, d.h. wann an die alte Performance angeknüpft werden kann und inwiefern eine Verbesserung eintritt.

Zwei-Account-Strategie (Nicht mehr empfohlen)

Mareike und Eva zeigte am Case von Snipes, welche Ergebnisse eine Zwei-Account-Strategie realisieren kann. Zum Zeitpunkt des Umzugs Ende August war diese Option die einzige, gleichzeitig verfügt Snipes über ein sehr großes Shoppingvolumen, weshalb ein sukzessiver Wechsel besser steuerbar war. Als Workaround zur Erhaltung der Produkthistorie wurden den neuen Shoppingkampagnen die alten als Basekampagne zugewiesen. Dennoch ist die Zwei-Account-Strategie wegen der hohen Zusatzaufwände und der doppelten Struktur nicht zu empfehlen.

 

 

Case Snipes DE: Ergebnisse Zwei-Account-Strategie

Eva präsentierte die Ergebnisse eines großen CSS-Umzugs am Beispiel des Streetwear-Händlers Snipes. Zielsetzung des Tests war es, insgesamt mehr Conversions zu erzielen. Der Test sollte die grundlegend wichtigste Frage klären, ob eine weitere Shoppingpräsenz eher Kannibalisierung oder Addition ist. Dazu wurden drei verschiedene Vergleiche gezogen, um robustere Schlussfolgerungen zu erlauben:

  1. Vergleich GSE längerer Zeitraum, CSS (kürzerer Zeitraum)
  2. Vergleich GSE CSS gleicher Zeitraum, CSS
  3. Benchmarking gegen Brand für Saisonaleffekte

 

Eva hatte zur Aufbereitung der Ergebnisse ordentlich „Number-Crunching“ betrieben, folgende Highlights des Snipes-Cases hatten wir notiert:

  • 62% Impressions kamen über GSE, 38% über CSS.
  • Der CSS ImpressionShare 45%, der GSE ImpressionShare 27%. Die Überschneidungsrate lag nur bei 32%.
  • Die Überschneidungsrate von Suchanfragen mit Conversions lag nur bei 11%, im CSS wurde longtailiger eingekauft
  • Die 11% Überschneidungen machen nur 8% der Conversions aus
  • Im CSS Account wurden 52.000 verschiedene Suchanfragen angezeigt, signifikant mehr als im GSE
  • In Summe wurden zum Vorzeitraum -8% Brandklicks, jedoch +3% GSE & CSS Klicks und 6% Umsatzsteigerung generiert.
  • Im CSS war ein 4,4% höherer CPC erkennbar, jedoch eine 30% höhere CTR. Die CR war überraschend jedoch niedriger

 

FAZIT: Ein sehr informativer Rundumschlag zum Thema CSS mit vielen handfesten Tipps zur eigenen Umsetzung und vielen quantivativen Erfahrungswerten.

 

6. Tools für bessere SEA/ SEO Verzahnung (Domenic & Christopher)

 

Domenic und ich sprachen am Nachmittag über zwei unserer Tools, um SEA & SEA Daten sinnvoll zusammenzuführen.

Zu Beginn zeigte ich einige Trends der jüngeren Vergangenheit, wie sich SERPs zu ungunsten von SEOs entwicklen. Hier sei vor allem auf Rand Fishkin’s Brighton SEO Keynote hingewiesen, in welchem Rand u.a. zeigte, dass die mobile SEO-CTRs um 20% (!) gesunken sind. Es ist also höchste Zeit, SEA und SEO Maßnahmen auf Keywordebene zu verzahnen.

6.1.  SEA-SEO Daten verknüpfen

Der ursprüngliche Plan des Vortrags war es, den PaidOrganicQuery-Report und seine Potentiale vorzustellen – doch stellte ich eine Woche vor der Konferenz fest, dass die SEO Daten völlig falsch sind: nur wenn eine Ad Impression dabei ist, werden SEO-Daten herangezogen.

Daher zeigten wir in unserem Vortrag eine Möglichkeit, drei Datenquellen per Ads Skript zu einem sinnvollen Ganzen zu verbinden:

  • SEA Suchanfragen aus Google Ads mit Kosten, Umsatz, URL etc.
  • SEO Suchanfragen aus der Google Search Console, manuell über das Sheet Addon „Search Analytics for Sheets
  • SEO Umsatzdaten pro URL aus Google Analytics

 

Die Verknüpfung der Daten lässt eine Aussage darüber zu, welche Keywords in welchem Bereich effizienter in Bezug auf Umsatz sind:

  • Für SEA-Keywords mit gutem Umsatz und ROAS sollten spezifische Landingpages gebaut werden, um im SEO besser zu ranken
  • Im SEO umsatzstarke Keywords sollten wiederum im SEA aufgenommen werden, da nach Periscopix und Hanapin eher eine Addition zu erwarten ist, auch im Brand-Bereich.

Sophia von Audible formulierte es treffend:

Das Demo-Sheet steht zum Kopieren bereit, die ausführliche Anleitung zur Installation findet ihr in unserem Github-Gist zum SEAcamp.

 

6.2. Toolbasierter Keywordausbau

 

 

Im zweiten Teil zeigte Domenic, wie man in eben genannter Übersicht guter Keywords die „Kirschen“ thematisch erweitern kann. Unser Keyword-Expansion Skript nimmt ein oder mehrere Keywords als Input und gibt diese mit angereichertem Output in ein neues Sheet.

Die Anreicherung umfasst folgende Datenpunkte um das Stammkeyword:

  • mehrfach vorkommende Begriffe („Synonyme“ sind es nicht ganz ;-))
  • verwandte Longtail Begriffe aus Google Suggest, inklusive Wortdistanz zum Stammbegriff, in diesem Fall „woolrich kinder“ sowie
  • das Suchvolumen aus unserer Keyword-Planner API, welche im Skript verbaut ist

FAZIT: Wenn auch viele „leichtere Kost“ erwartet haben, haben wir unseres Erachtens zwei spannende Tools zum effizienteren Austausch von SEA-SEO-Daten geliefert. Ausbaufähig ist noch die Vollautomatisierung der GSC-Abfrage, welche sich jedoch aufgrund des fehlenden OAuth2-Packages für Ads Script schwierig gestaltet. Es gibt noch viel zu tun – wir bleiben weiter dran.

 

 

7. Diskussionspanel: Die Zukunft des SEA Managers in Zeiten von KI und Automatisierung

 

Zum Schluss wurde mir noch die Ehre zuteil, am Abschlusspanel zu Automatisierung und Machine Learning im SEA teilzunehmen.

Panelteilnehmer waren von links nach rechts:

  • Olaf Kopp (Moderator),
  • Christopher
  • Sophia Skuratowicz (Audible)
  • Robin Heintze (morefiremedia)
  • Thomas Grübel (inbiz)
  • Christian Penseler (aufgesang)
  • David Schlee (conversearch)

 

Nach einem Ausflug in das Thema Google und Agenturen lenkte Olaf Kopp schnell zurück Richtung KI: „Denkt ihr, dass der SEA Manager überflüssig wird?

Robin: Der SEA Manager wird zukünftig stärker strategische Aufgaben übernehmen und Systeme steuern, die Rolle wird ganzheitlicher.

Sophia: Teams werden stärker crossfunktional nach Marketingfunnel strukturiert, wenn die operative Detailarbeit weniger im Vordergrund steht.

Thomas: Es muss noch sehr viel passieren, bis Google uns die komplette Arbeit abnimmt. Zumal ist Google wie die Bank im Casino und hat wirtschaftliches Eigeninteresse. Daher wird es immer den Bedarf einer kontrollierenden Instanz geben.

Christian: Bei Google entstehen zunehmend Tools, die das Targeting an Machine Learning abgeben und Advertiser an den Kreditkartenschlitz verweisen. Diese Systeme werden mit der Zeit stetig besser werden – es wird schwer, hier mit manuellen Mitteln gegenzuhalten.

Martin Röttergerding (Publikum): Google hat vorrangig zum Ziel, allgemein gültige Tools für die breite Masse bereitzustellen. Je größer und individueller eine Organisation, desto weniger können Tools von der Stange helfen.

 

 

Einschätzung & Fazit:

  • Produkte wie Google ROAS Bidding sind noch sehr wenig-dimensional und auf „Schönwetterphasen“ ausgelegt – sobald etwas schief geht, kommt einen der Kontrollverlust schwer zu stehen. Eine Neuorientierung besteht darin, für den Notfall zu planen und mittels Anomalieprüfung zu kontrollieren.
  • Google setzt stark auf die Demokratisierung von AI im Rahmen Ihrer Google Cloud APIs. Hier wird man als Interessierter zunehmend leichter den Einstieg in Machine Learning finden. Hier sind als Beispiele BigQueryML oder AutoML für natürliche Sprache zu nennen, Voraussetzung ist Python.

In der weiteren Zukunft wird sich m.E. die Aufgabe bei SEA Managers bei größeren Konten in drei Rollen ausprägen:

  • PilotIn: Überblick über alle operativen Systeme und Datenflüsse, findet Ursachen für Anomalien schnell, versteht technische Zusammenhänge und ist exzellent in logischem Denken. KönigIn der Operative, exzellent im Qualitätsmanagement.
  • ImplementiererIn: Setzt konkrete Automatiserungsprojekte mit eigenem technischem Wissen (Javascript, Python, SQL) um und agiert als Schnittstelle zur Entwicklung oder kommt ohne solche aus.
  • Stratege/In: Überwacht die Operative und vernetzt Maßnahmen mit anderen Bereichen, versteht die Potentiale und Herausforderungen im Performance Marketing.

 

8. Gesamteindruck der Veranstaltung und Organisation

 

Das SEAcamp bleibt für mich die einzige Fachkonferenz im Online Marketing Bereich, die man immer uneingeschränkt empfehlen kann: Unschlagbarer Preis für den gebotenen Inhalt, überwiegend Praxisvorträge mit wertvollen Tipps und eine demokratische Vorauswahl der Beliebtheit sorgen dafür, dass nicht enttäuscht wird.

Das gesamte BarCamp Konzept auf Augenhöhe ist sehr sympathisch und sorgt für echten & tiefen Austausch unter fachlich Gleichgesinnten. Da ich eine Woche zuvor die HeroConf besucht habe, kann ich behaupten: Die SEAcamp steht solchen größeren Veranstaltungen in nichts nach, das Niveau der Vorträge ist gleichwertig. Zusätzlich ist das Veranstalterteam seit 2013 in der gleichen Besetzung aktiv, was wiederum dafür spricht, dass es Olaf, Tobias, David und Thomas wirklich Spaß zu machen scheint. 🙂

In diesem Sinne: Weiter so und bis zur nächsten SEAcamp! Der nächste Ticketverkauf für Jena startet Anfang Dezember.

Domenic & Christopher

*****

Weitere SEA Recaps:

Keine Kommentare