Profitieren Sie jetzt von einem kompetenten SEO-Partner im Rhein-Main-Gebiet - Ob in Darmstadt, Frankfurt, Mainz, Wiesbaden oder der kompletten DACH-Region - wir sind für Sie da!
Tag 1 – Samstag, der 14.03.2015 Alex Axmann SEO Campixx 2015

Professionelle Siteclinic für jedermann

Den Einstieg in die erste Session des Tages geben Maximilian Bloch und Christoph Baur. Aus der Sicht einer Agentur, aber auch für Inhouse-Mitarbeiter, bieten die Referenten einen tollen Rundumschlag für Einsteiger in Sachen Erstanalyse. In sechs Schritten gehen die Vortragenden auf den Prozess der Siteclinic ein und beschreiben für jeden Punkt Vorgehen und Tools, sowie „best practices“ aus der Welt einer Agentur.

SEO Campixx 2015 Siteclinic

Besonders interessant sind dabei die Hinweise im Bereich Crawlability und Indexsteuerung. Hier werden zum Beispiel hilfreiche Tipps zur facettierten Suche und den daraus resultierenden Schwierigkeiten bei der internen Verlinkung gegeben.

SEO für Analytiker: Hard Facts aus der Praxis

Der zweite Vortrag gibt ebenfalls Einblicke in die „Hard Facts“ der SEO Welt. Felix Meyer von Seokratie, der sich selbst auch als Datenfanatiker bezeichnet, legt hier besonderen Wert auf belastbare Daten. Ein laut ihm passender Titel für den Vortrag wäre ebenfalls „Weg vom Bauchgefühl“, was ebenfalls seine Vorliebe für datengestützte Entscheidungen zeigt.

SEO Campixx 2015 SEO für Analyticer

Anhand anonymisierter Beispiele zeigt er, wie auf Grundlage erhobener Daten Thesen zu verschiedenen Problemstellungen entwickelt werden. Dabei geht es zum Teil um ganz klassische SEO-Fragen, was während des Vortrags zu interessanten Rückfragen und Diskussionen führt. (Stichwort „internes nofollow“)

Thinking like a GoogleBot

Im Vortrag von Steffen Otto „Thinking like a GoogleBot“ wurde klar, was alles möglich ist, wenn der SEO eines großen Online-Shops ebenfalls den Titel des Chef-Entwicklers innehat. Der seit mehreren Jahren im Unternehmen entwickelte Crawler, welcher sowohl Produktiv- als auch Entwicklungsumgebung regelmäßig crawlt, ist tatsächlich tief im Deployment-Prozess verankert.

Somit ist es bei bonprix.de quasi nicht möglich, durch neue Versionen der Website eine Verschlechterung der Onpage-Faktoren zu erreichen. Wird also durch einen Entwickler ein Fehler verursacht, ist der Livegang der Veränderungen vom System verhindert. Ein weiterer Vorteil, den das selbstständige Crawling bietet, ist die historische Datenhaltung. Dies ermöglicht die Betrachtung der Entwicklungen über einen wesentlich längeren Zeitraum. Steffen Otto fasst ganz klar zusammen:

„Jede große Seite braucht einen eigenen Crawler!“

Wie der Titel der Session vermuten lässt, werden auch Standard-SEO Themen, welche wir alle kennen, aus der Sicht eines Bots erklärt. Steffen Otto betrachtet zum Beispiel die bekannte Regel „The first link counts“ so, dass mehrere Links auf einer Seite zum gleichen Ziel redundante Datenbank-Lookups verursachen. Dies erhöht natürlich die benötigte Rechenleistung, was sicher auch nicht im Sinn von Google sein kann.

Eher als ein Hobby beschreibt der Referent die Entwicklung einer eigenen Suchmaschine.

„Wenn man einen eigenen Crawler hat,“ so Otto, „ist der Weg zu einer Suchmaschine nicht mehr weit“.

In Kombination mit Elasticsearch und eigenen Gewichtungen werden interessante Analysen über die Rankings einzelner Seiten möglich.

„Gute Seiten, schlechte Seiten“ Welche URL in den Index gehört und welche nicht

Eric Kubitz diskutiert in seiner Session mit dem sehr eingängigen Titel „Gute Seiten, schlechte Seiten“, über das Für und Wider zur Indexierungsfrage bestimmter Seitentypen. Zwar ist die Indexsteuerung ein bekanntes und bereits viel diskutiertes Thema, allerdings stellt es nach Kubiz einen der häufigsten Fehler aus Agentursicht dar.

SEO Campixx 2015 Thinking like a GoogleBot

Zwar handelte es sich natürlich um Standard-Themen, jedoch entstanden auch in dieser Session viele interessante und anregende Diskussionen mit dem Publikum. Eine solche Session mit einer Art Barcamp-Charakter ist auf der SEO Campixx natürlich eine willkommene Abwechslung.

Linguistischer SEO-Werkzeugkasten – sei relevant!

Der letzte Vortrag am Tag 1 ist vor allem an technikaffine Onpager und Texter gerichtet. Mit dem linguistischen SEO-Werkzeugkasten möchte Sonja Kraus darauf hinweisen, wie wichtig es ist relevant zu sein.

In ihrer wie sie selbst sagt „ersten Präsentation seit dem Studium“ geht Frau Kraus auf die Themen „Suchmaschinen“ und „Semantic SEO“ ein. Dabei legt sie einen besonderen Fokus auf den wissenschaftlichen Hintergrund sowie verschiedene aus dem Information Retrival bekannte Methoden. Außerdem erklärt sie Thematiken wie Crawling, Parsing, Tokenizing, POS-Tagging und die bekannte Formel TF-IDF (WDF-IDF).

Ein weiterer Hinweis ist die Wichtigkeit um das gesonderte Betrachten von Synonymen, Homonymen und Polysemen, sowie der Umgang von Suchmaschinen mit diesen Problematiken. Ebenfalls interessant ist die Idee, Ontologien und die Beziehungen von Entitäten zur Erweiterung passender Keywords beim Schreiben von Texten zu verwenden.

Zum Abschluss gibt Sonja Kraus die folgenden Tipps:

  • Seiten korrekt semantisch auszeichnen
  • Synonyme in Texten verwenden
  • WDF-IDF Tools einsetzen
  • Explizite Nutzung von Subjekt-Prädikat-Objekt Formulierungen

Tag 2 – Sonntag, der 15.03.2015

Suchmaschinen Indexpflege für E-Commerce Projekte

Aus der Sicht einer Agentur erhalten die Zuhörer in der ersten Session des zweiten Tages der SEO Campixx 2015 einen Überblick über alles, was in Sachen Indexpflege zu beachten ist. Insbesondere geht der Vortrag von Olaf Pleines von trafficmaxx auf diese Thematik in Bezug auf E-Commerce Projekte ein.

SEO Campixx 2015.Berlin. Online Marketing Konferenz

Im ersten Teil wird ein besonderer Fokus auf die Faktoren gelegt, welche bei einem E-Commerce Projekt zur Entscheidung beitragen, ob eine Seite in den Index soll oder nicht. Genannt wurden hier Sortiment bezogene Faktoren, wie die Größe von Artikeln, der Lagerbestand oder zum Beispiel ein Shop mit schnelldrehendem Sortiment. In Sachen Marketing fallen verschiedene Content-Themen wie Ratgeber, Communities oder das eingesetzte und befüllte CMS. Technische Faktoren, die bestimmen können, ob eine Seite in den Index darf oder nicht, sind bekannte Themen wie Paginierung, Filter oder Ajax Elemente.

Konkrete To-Do’s aus dem Vortrag:

  • SOLL für Seitenbestand erheben
  • IST für indexierte Seiten erheben und mit SOLL vergleichen (Handlungsbedarf?)
  • Die Logfiles nach Besuchen des GoogleBots durchforsten
  • Sind alle GoogleBots wirklich von Google? (Reverse-IP)
  • Thumbnails von Produkten vom Crawling ausschließen

Realtime SEO mit Elasticsearch & NodeJS

Interessante Einblicke aus der Entscheidungsfindung bei Chip.de liefert Valentin Pletzer in seiner Session. In einem stark techniklastigen aber überaus inspirierenden Vortrag zeigt er, wie die Redaktion unter zur Hilfenahme seines auf Elasticsearch basierenden Tools mit (quasi) Echtzeit-Daten Entscheidungen zur Content Steuerung treffen kann.

Adobe Analytics wird zwar eingesetzt, aber ist zu langsam, um schnell genug reagieren zu können. Die Detektion eines möglichen Trend-Themas basiert aktuell auf dem Vergleich der Zugriffe des aktuellen Zeitraums zum gleichen Tag der Vorwoche.

Operatives und Strategisches SEO Controlling von der Suche bis zur Conversion

Patrick Müller von der takevalue Consulting GmbH zeigt in seiner Session Strategisches SEO Controlling interessante Insights zum Controlling und zu Reportings aus der täglichen Anwendung im Unternehmen.

SEO Campixx 2015 Patrick Müller

Einen besonderen Wert legt er auf Automatisierung, das Verknüpfen von Datentöpfen, die richtigen KPIs zu den richtigen Fragen und korrekte Reportings für die entsprechende Zielperson. Seinen Vortrag stellt Patrick auf Slideshare zur Verfügung.

Google Analytics Rohdaten parallel selbst erfassen – Keine Limits, keine Zensur und BigQuery-Funktionalität ohne Premium-Account

In dem Vortrag von Dennis Elsner, seines Zeichens Senior Consultant SEO bei den ad agents, wird eine neue Herangehensweise aufgezeigt, die erfassten Daten des Google Analytics js-Skripts parallel zu erfassen und abzuspeichern.

SEO Campixx 2015 Dennis Elsner

In seinen Studien des Datenübermittlungsprozesses zu Google Analytics stieß Dennis auf die Analytics Beacons und untersuchte diverse Funktionen innerhalb des Skripts, um Möglichkeiten zu finden die generierten Daten parallel zu erfassen.

Tatsächlich funktioniert sein Ansatz und glücklicherweise stellt Dennis auf Anfrage sein Skript gerne in kommentierter Form zur Verfügung.


Hier gehts zum Recap zur SEO Campixx 2015 von Patrick Müller. Ihr habt außerdem Fragen? Dann schreibt mir eine E-Mail oder hinterlasst direkt hier ein Kommentar.

Außerdem spannend

Johannes Kunze
Johannes Kunze
Der Autor dieses Artikels hat das Unternehmen verlassen. Bei Fragen zum Artikel wenden Sie sich bitte an [email protected]!
7 Antworten
  1. Hallo Johannes,

    schöner Recap des zweiten Tages mich deucht Dir hat es auf der Campixx und auch in meinem Slot gefallen. Bei der Gelegenheit, vielen Dank für die „Erwähnung“.

    Viele Grüße aus Bremen
    Olaf

  2. Pingback: Recaps zur Campixx Week und SEO Campixx 2015
  3. Pingback: SEO Campixx 2015 Recap & Folien & Knowledge Bombs!
  4. Pingback: Recap Campixx Week und SEo Campixx - Lexware Blog - Meine Firma und ich
  5. Pingback: CAMPIXX WEEK 2015 - Meine Worte, meine Bilder | PressTalk
Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert