Recap SEO CAMPIXX – Tag 2 von David

Der erste Tag der SEO CAMPIXX war in Sachen Vortragsqualität und Networking wirklich großartig. Wie Patrick auch schon in seinem Recap geschrieben hat, sind deshalb auch unsere Recaps des ersten Tages sehr umfangreich ausgefallen. Nach den tollen Eindrücken des ersten Tages waren wir sehr gespannt auf Tag 2.

 Tag 2

Profitieren Sie jetzt von einem kompetenten SEO-Partner im Rhein-Main-Gebiet - Ob in Darmstadt, Frankfurt, Mainz, Wiesbaden oder der kompletten DACH-Region - wir sind für Sie da!


SEO-Agentur goes Google AdWords Partner – Sven Deutschländer

Leider fiel die Session „Local SEO Tools, Kunden, Traffic. Wie funktioniert es?“ nach Auskunft einiger Teilnehmer aus, weshalb ich leider mit kleiner Verspätung in der Session von Sven Deutschländer ankam. Der Vortrag hatte zum Ziel einige alte Denkmuster beim SEO & SEA aufzulösen, mögliche Synergieeffekte im SEM aufzuzeigen und den Teilnehmern Informationen zum Thema AdWords Zertifizierung zu lieferen.

Sven beschrieb, dass viele KMUs eine „Omnipräsenz“ im Bereich SEM anstreben. Mit Hilfe der engen Verknüpfung von SEA und SEO Aktivitäten wurden in der Session Möglichkeiten beschrieben, genau diese starke Präsenz zu relevanten Suchanfragen zu erreichen. Des Weiteren wurden einige Thesen benannt, die helfen sollten eine gleichwertige Betrachtung von SEO und SEA Maßnahmen zu erreichen. Im SEA und SEO sollte demnach, wenn beide Disziplinen nicht aus einer Hand betrieben, zumindest ein regelmäßiger Austausch angestrebt werden, um eine gezielte Aussteuerung beider Kanäle zu ermöglichen und bestehende Marktpotentiale ideal auszunutzen.

Es gilt also zu prüfen, welche Keywords im SEA, im SEO oder in beiden Kanälen, d.h. in Kombination gut funktionieren. Die Verknüpfung des Adwords Kontos mit den Google Webmaster Tools (Bezahlte und organische Suchergebnisse-Bericht) kann genutzt werden, um eine gute Vergleichbarkeit beider Kanäle zu erreichen.

Darüber hinaus wurden weitere Use Cases benannt, in denen sich beide Kanäle beflügeln können:

  • „not provided“ Lösungsansatz
  • Linkbuilding Quellen über den Placement Bericht im Google Display Netzwerk zu finden
  • Oder durch eine inhaltliche Überarbeitung einer Landingpage für SEO, welche sich auch positiv auf den Qualitätsfaktor der eigenen SEA Kampagnen auswirken können

Im nächsten Teil der Präsentation wurden Kriterien vorgestellt, was Agenturen bei der Zertifizierung als Google Partner oder auch bei der Mitarbeiter Zertifizierung zum AdWords Professional beachten sollten.

Crawling-Analyse: Wo ver(sch)wendet Google Crawling-Ressourcen? – Stephan Czysch

Stephan Czysch, einer von drei Geschäftsführern von Trust Agents, begann seinen Vortrag mit einer kurzen Erläuterung von Grundlagen hinsichtlich des Crawlings von Suchmaschinen. Unter anderem beschrieb er, dass ein Suchmaschinen-Crawler URLs mit verschiedenen Status Codes crawlen muss, um sicherstellen zu können, dass diese auch weiterhin relevant für die Indexierung sind. Dazu gehören u.a.:

  • Verfügbare und nicht verfügbare URLs (bspw. 404)
  • Weitergeleitete URLs (Bspw. 301)
  • Von in der Indexierung ausgeschlossene URLs (bspw. meta robots noindex)

image006

Nach einer kurzen Beschreibung der Google Pipeline (The Pipeline (simplified)) erläuterte er, dass Crawling nicht auch gleich einer Indexierung von URLs entspricht.

Mit Hilfe des meta robots Tag, welches User Agent spezifisch und auch im http Header übergeben werden kann, kann sichergestellt werden, dass Inhalte von der Indexierung ausgeschlossen werden. Um letztlich auch das Crawling einer URL zu verhindern, ging er anschließend auf die Konfigurationsmöglichkeiten bei der robots.txt ein, welche sich ebenfalls User Agent spezifisch definieren lässt. So werden alle Verzeichnisse und Dateipfade welche in der robots.txt nicht negiert werden zum Crawling zugelassen. Zusätzlich kann mit der Allow Anweisung gearbeitet werden, welche zwar nicht im robots.txt Standard definiert, aber sehr wohl von Google beachtet wird.

Nach einer Gegenüberstellung von verschiedenen Auswirkungen hinsichtlich Indexierung und Crawling bei Nutzung von Anweisungen wie der meta robots, der robots.txt und des canonical Tags ging Stephan auf einige konkrete Problemstellungen ein, die verdeutlichen sollten, dass es wichtig ist, irrelevante URLs nicht nur von der Indexierung, sondern speziell vom Crawling auszuschließen. So beschrieb er mit Hilfe der Crawling Statistiken aus den Google Webmaster Tools, dass nicht hohe Crawlraten, sondern vielmehr ein effizientes Crawling relevanter URLs entscheidend ist.

Die Daten der Google Webmaster Tools helfen zwar bei der Einschätzbarkeit von Crawling Schwierigkeiten auf der Webseite, um jedoch konkrete Probleme beim Crawling von Webseiten identifizieren zu können, sei der beste Weg die Logfile Analyse. So kann auch die Nutzung externer OnPage Tools nur helfen, Probleme auf der bestehenden Website zu identifizieren. Weitere relevante Einflussfaktoren wie Crawling Fehler durch extern verlinkte, alte oder nicht existierende URLs (URL Guessing) können dabei jedoch leider nicht beachtet werden.

Stephan zeigte auf den nachfolgenden Slides eine Schritt-für-Schritt Anleitung wie man Logfile Analysen auch in Excel durchführen kann, um sehr interessante Erkenntnisse über die Crawling Frequenz, Crawl-Präferenzen seitens Google und auch Crawling Probleme identifizieren lassen. Importiert man eine Logfile Datei in Excel und bereitet man die Daten ggf. mit den SEO Tools for Excel noch ein wenig auf, lassen sich somit interessante Fragestellungen beantworten:

  • Wie häufig werden einzelne URLs von Google gecrawlt?
  • Werden bestimmte Ordner präferiert vom Googlebot gecrawlt?
  • Verändert sich die Zeitdifferenz beim Crawling durch den Googlebot?
  • Welche URLs werden ggf. gar nicht gecrawlt? (Zusätzliche Aufbereitung notwendig: Bspw. mit Hilfe eines Vergleichs von Logfile URLs mit einer vollständigen XML Sitemap)
  • Wie häufig werden relevante Seiten oder Top Landingpages im Vergleich zum Rest der Webseite gecrawlt?

Diese Fragestellung verdeutlichte er mit Hilfe einer Beispielanalyse, bei der festgestellt werden konnte, dass relevanten URLs eines Webauftritts nur mit einem Anteil von 8% gecrawlt wurden und somit wichtige Crawling-Ressourcen für weniger relevante Seiten seitens Google aufgewendet wurden.

Sein abschließender Tipp war darauf zu achten, das Crawling durch Google auf Websites gezielt zu steuern und sich mit dem Indexierungsmanagement eher nachgelagert zu beschäftigen.

Semantic Search: SEO, Marketing and Content for the Future – Svenja Hintz

Der Vortrag von Svenja Hintz hatte weniger einen operativen SEO Fokus, sondern beschäftigte sich ein wenig mit dem Großen Ganzen und dem Blick in die Zukunft. Nach einer kurzen Einführung in das Thema Semiotik („The Science of Sign“) beschrieb sie, wie Symbole kognitiv mit bestimmten Konzepten verknüpft werden. Als Resultat wissen bspw. wir Menschen durch den semantischen Zusammenhang welche Konzepte, also welche Bedeutungen mit einem bestimmten Symbol in Verbindung zu setzen ist. Ein abstraktes Konzept wird demnach letztlich durch Zeichen und Symbole genauer spezifiziert. So sind auch Wörter, Buchstaben, Sprache und Dialekte als Symbole zu verstehen, welche ein bestimmtes Konzept und infolgedessen eine Bedeutung spezifizieren. Nach dieser wirklich interessanten Einführung in das Thema Semiotik widmete sich Svenja in Ihrem Vortrag der Nutzung von Semantik im Bereich der Suche.

Sie machte deutlich, dass Google durch Themen wie Universal Search Integrationen verwandte Suchanfragen schon vor dem Hummingbird Update Semantik genutzt hat, um das Sucherlebnis und die Suchergebnisse weiter zu verbessern. Einfache Keywords sollen demnach von Entitäten, mit dem Versuch seitens Google Sprache (d.h. Symbole bzw. deren Bedeutung) besser verstehen zu können, abgelöst werden. Eine Entität bezeichnet dabei ein „Real Life Thing“, d.h. die Entität hat eine bestimmte Bezeichnung und auch bestimmte Eigenschaften, welche wenn diese bekannt sind zur Beantwortung einer konkreten Fragestellung genutzt werden können. Google entwickelt sich von der Suchmaschine also immer mehr zur „Antwortmaschine“.

Spätestens mit Einführung des Knowledge Graphs wird deutlich, dass Google bei der Erkennung von konkreten Fragestellungen besser wird und genaue Antworten zu Nutzerfragen liefern kann, wenn der Kontext der Fragestellung erkannt und durch passende Entitäten bedient werden kann.

Bsp. „how tall is barack obama“

image007

Dabei können erst über den Kontext und die Beziehungen von Entitäten zueinander klare Ableitungen und Aussagen hinsichtlich des verfolgten Konzeptes getroffen werden. Die Kenntnis einer Vielzahl von verschiedenen Entitäten, deren Kategorisierung und die Kenntnis von Beziehungen dieser Entitäten untereinander innerhalb einer Ontologie ermöglichen es die „Grundstruktur des Seins“ also eines Themas oder einer Suchanfrage zu verstehen.

Eine Ontologie ist geprägt durch die enthaltenen Entitäten, welche durch Kanten und Knoten spezifiziert und verbunden werden:

image009

Bei der Frage wie Google Entitäten kennen lernt benannte Svenja die folgenden drei Methoden:

  1. Ausgewählte Vertrauenswürdige Ressourcen (Bspw. Wikidataproject, Freebase)
  2. Google sammelt Daten in strukturierter Form (Bspw. schema.org)
  3. Nutzer stellt Daten strukturiert zur Verfügung (Bspw. Google Maps)

In der Diskussion mit den Teilnehmern wurde herausgestellt, dass online Informationsquellen eine hohe Informationstransparenz unterstützen müssen, um nicht langfristig in der Irrelevanz zu verschwinden. Dabei gilt es immer authentisch zu bleiben und die relevanten Aspekte, nach dem was, wie, wer und speziell dem warum zu beantworten. Abschließend gab Svenja einen Einblick in mögliche semantische Rankingfaktoren. Diese umfassten:

  • Kontext: Standort, Interessen, Vorlieben
  • Assoziationen: Verbindung zu Entitäten
  • Beziehungen: Kanten, Schnittmengen
  • Intention: Implizite Suchanfragen
  • Sinngehalt: Semantische Auszeichnung

Dieser Vortrag war nicht nur wegen der thematischen Nähe zu meinem Studiengang der Informationswissenschaft einer meiner Session-Highlights an diesem Tag.

Vielen Dank an dieser Stelle an alle Vortragenden, das Orga-Team der SEO CAMPIXX und all die netten Leute, die ich während den zwei Tagen wieder sehen konnte. Hoffentlich bis im nächsten Jahr…

Wenn Sie weitere Fragen haben oder mehr Informationen benötigen, nehmen Sie direkt Kontakt mit mir auf: [email protected]

Mehr zur SEO CAMPIXX 2014 von uns gibt es hier

SEO CAMPIXX Tag 1 von David
SEO CAMPIXX Tag 1 von Patrick
SEO CAMPIXX Tag 2 von Patrick

David Richter
David Richter
Der Autor dieses Artikels hat das Unternehmen verlassen. Bei Fragen zum Artikel wenden Sie sich bitte an [email protected]!
5 Antworten
  1. Der Vortrag gehörte für mich definitiv zu den Highlights der Campixx.. Ich hab mich sogar zu ein wenig Austausch mit Svenja und anderen im Anschluss „genötigt“ gefühlt.. 😉
    Hat Spaß gemacht zuzuhören!

  2. Pingback: Recap zur SEO Campixx 2015 von Johannes
Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert