Johannes Kunze 1 Kommentare

Recap: eMetrics Summit 2016

 

Auch dieses Jahr fand am 8. und 9. November wieder die eMetrics Summit in Berlin statt. Für mich war die eMetrics Summit 2016 bereits das zweite Mal, dass ich die Konferenz besuchen durfte. Obwohl meine Profession eher in der Webanalyse liegt, schaue ich auch gerne mal über den Tellerrand hinaus.
Aus diesem Grund habe ich während dieser Konferenz auch die Predictive Analytics Word und die Conversion Conference besucht.

Vorab: Alles in allem war es eine gelungene Konferenz mit informativen Vorträgen aus drei spannenden Bereichen. Wie auch letztes Jahr ist mein Fazit: Ich komme gerne wieder!

In den folgenden Abschnitten möchte ich euch gerne ein paar der Vorträge näher bringen und das ein oder andere Learning mit euch teilen.

Meine Eindrücke der eMetrics Summit 2016

Aufgrund der umfassenden Anzahl an Sessions, fiel mir die Auswahl der für mich interessanten Tracks wirklich nicht einfach. Bei den von mir besuchten Tracks habe ich ein paar interessante Punkte mitnehmen können.

Andreas Stuht gewährte Einblicke in den Arbeitsprozess der Analysten bei Otto. Deren Teams sind stets interdisziplinär gestaltet. Alle Mitglieder des Teams bilden gemeinsam den Product Owner. Wenn eine Firma groß genug ist und der Mitarbeiterstamm einen solchen Aufbau für die verschiedenen Produkte/Bereiche hergibt, finde ich diese Idee sehr gut.

 

Ebenfalls gefällt mir der Grundsatz, Prozesse weitestgehend zu automatisieren, wie bspw. einfache Reportings, sehr gut. Das bietet den Analysten die Möglichkeit, entweder tiefere Analysen durchzuführen oder sich zum „Advanced Analyst“ weiterzubilden. Die Entwicklung der Produkte ist dabei als iterativ anzusehen. So wird mit einem MVP (Minimum viable product) gestartet und stetig weiterentwickelt.

 

Dean Abbott, seines Zeichens Chief Data Scientist bei SmarterHQ, hat mit seinem Vortrag einen kleinen Rundumschlag zum Thema Data-Science gegeben. Vorallem die folgenden Punkte haben mich erreicht:

  • „The data is the data“ (und nicht mehr).
  • Der Schlüssel (bei Machine Learning) sind die zusätzlichen Metriken, die ihr selbst berechnet.
  • Beschäftige dich wieder einmal mit Kaggle!
  • Verbindet eure Datensilos, soweit möglich und rechtlich erlaubt.
  • Macht euch die grundlegenden Eigenschaften bewusst, die eure Algorithmen ausmachen.

Einen unheimlich sympathischen Vortrag gab es von Tim Wilson zu „R“ und seiner Reise zum „R-Nutzer“. Während der Hälfte seines Vortrages versagte die Technik und es wurden keine Slides angezeigt. Er improvisierte auf eine sehr sympatische Art und Weise und schaffte es souverän, die Inhalte zu vermitteln, sodass ich mich zukünftig doch mal intensiver mit „R“ beschäftigen werde. Zwar war KNIME für mich bisher immer völlig ausreichend, aber das eigene Tool-Set zu erweitern, kann nie schaden!

Auch bei dem Vortrag zu Open Source Technologien von André Kolell (finanzcheck.de) habe ich einige Punkte mitnehmen können. Er zeigte auf, wie bei finanzcheck.de ein Open Source Stack aus Google Analytics (free), Piwik (für Rohdaten), Eigenentwicklung für Formular-Strecke, Pentaho (ETL) und Jaspersoft entstanden ist.

Seine Kernaussagen waren:

  • Open Source ist nicht kostenlos!
  • Viele Arbeitsstunden in Infrastruktur, eigene Entwicklung und eigene Tools erforderlich.
  • Es braucht einen Vision Leader, der das Thema antreibt.
  • Die IT muss eng involviert sein.
  • Es müssen Definitionen (welche Datenquelle bestimmt) und Rahmen geschaffen werden.
  • Architektur ist das wichtigste!

Zwar habe ich selbst mit Pragrammatic noch keine Berührung gehabt, jedoch ist das Thema aktuell in aller Munde. Mit ihrem furiosen Vortrag hat Anisa Boumrifak aus der Datengetriebenen Sicht mit Programmatic abgerechnet. Wer hier nichts gelernt hat, konnte zumindest ein paar Lacher mitnehmen. Und ich weiß jetzt: Progammatic ist toll, kostet verdammt viel Geld und erschafft keine Einhorn-Parkplätze.

Auf der Conversion Summit habe ich leider die wenigsten Vorträge besuchen können. Den Vortrag von Alexander Holl wollte ich mir jedoch nicht entgehen lassen. Mit Livebeispielen zeigte er, gemeinsam mit seinem Kollegen André Goldmann, wie man mit Google Analytics heute schon Nutzer über mehrere verschiedene Devices hinweg tracken kann. Wenn technisch machbar, auf jeden Fall interessant denn: „Menschen konvertieren, nicht Cookies“.

Fazit zur eMetrics Summit 2016

Wie zu Anfang bereits gesagt: Ich werde die Konferenz gerne wieder besuchen. Neben den Learnings der Kollegen, kann ich immer neue Denkimpulse mit nach Hause nehmen, was ich besonders wertvoll finde. Und davon gibt es reichlich auf der Konferenz. Sei es in den Vorträgen oder in den Gesprächen mit den Gästen.

Rating: 5.0. Aus 6 Bewertungen.
Bitte warten...
Der Autor dieses Artikels hat das Unternehmen verlassen. Bei Fragen zum Artikel wenden Sie sich bitte an info@takevalue.de!
Kommentare

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

  1. Florian sagte:
    15.11.2016

    Besonders in der explorativen Datenanalyse ist R eigentlich unschlagbar und deutlich mächtiger als KNIME. Es sind zusätzlich aber bspw. auch mehr statistische Methoden in R implementiert. Kleiner Tipp: Man kann R auch in seinen KNIME Workflow einbinden.

    Ansonsten sehr Informativer Recap und anscheinend eine lohnende Konferenz.

    Grüße
    Florian

Weitere Beiträge