Webanalyse: Besser gratis? – Warum für ein Tool zahlen, wenn es Google Analytics gibt?

Kein Webanalytics-Tool ist so verbreitet wie das kostenlose Google Analytics. Es hat die Webanalyse massenkompatibel gemacht und überrascht immer wieder mit bahnbrechenden Funktionen. Abgesehen von ein paar Datenschutzbedenken gibt es daher doch keine wirklichen Gründe mehr, für ein Analytics-Tool noch zu bezahlen. Oder doch?

Seit seiner Geburtsstunde hat Google Analytics (GA) uns immer wieder überrascht mit bahnbrechenden Funktionen, welche manchmal selbst die etabliertesten Enterprise-Tools zum Nachziehen zwangen. Man denke nur an die für Analysten unverzichtbare Ad-hoc-Segmentierung, ein Feature, das andere Anbieter in einer vergleichbaren Form erst Jahre später auf den Markt brachten. So ist zum Beispiel Webtrends erst dieses Jahr mit „Webtrends Explore“ gänzlich in die Welt der schnellen Ad-hoc-Segmentierung eingestiegen – und toppt die Segmentierungsmöglichkeiten von GA dabei sogar noch.

Warum soll ich da noch zahlen?

Solch tolle Funktionen, solch grosse Verbreitung. Da fragen sich viele sicher: Wieso gibt es überhaupt noch Unternehmen, die für ein Analytics-Tool bezahlen? Als ich vor Jahren zum ersten Mal mit den sogenannten „Enterprise-Tools“ in Berührung kam, fragte ich mich das auch erst mal. Selbst wenn in puncto Features die Unterschiede immer mehr verschwimmen, so gibt es trotzdem noch immer ein paar Dinge, die man eben nur bei den „bezahlten Tools“ bekommt. Und je mehr ich mit diesen „bezahlten Tools“ arbeite, desto besser verstehe ich, dass diese Dinge wirklich ausschlaggebend sind.

Es geht nicht um Datenschutz

Daher möchte ich hier den allgegenwärtigen Reigen der GA-Lobpreisungen einmal durchbrechen und die aus meiner Sicht grössten Mankos der kostenlosen GAs schildern. Damit meine ich nicht die endlose Datenschutzdebatte um Google und um den häufigen Vorwurf, dass man bei GA „mit seinen Daten bezahle“. Auch wenn das wohl der Hauptgrund ist, warum GA bei vielen Firmen nicht in die engere Auswahl kommt, geht es mir hier um die Dinge, die mich als Analysten bei der täglichen Arbeit mit Google Analytics am stärksten stören.

1. Sampling

Analytics-Tools sind immens rechenleistungshungrig: So immens, dass selbst Google mit seiner unvergleichlichen Serverlandschaft bei GA mit Sampling arbeiten muss, um den Nutzer nicht zu lange auf den Report warten zu lassen und seine Server nicht zu überlasten.

Sampling heisst: Statt jede Zeile auszulesen, prüfe ich nur jede dritte, vierte, zehnte oder gar hundertste oder tausendste. Das funktioniert in der Sozialforschung wunderbar. Es reicht in der Regel, 0.001 Prozent, also etwa 1’000 repräsentativ ausgewählte Schweizer Bürger zu ihrer Meinung zur EU zu befragen, um mit einer sehr geringen Fehlerquote herauszufinden, wie viel Prozent die EU ablehnen. Möchte man nun aber die Meinung eines kleinen Bevölkerungssegments wissen, also zum Beispiel, wie die Schweizer Marketing-Fachleute unter diesen 1’000 befragten Bürgern zur EU stehen, wird meine Stichprobe von 1’000 nicht für eine zuverlässige Aussage reichen, da ich kaum genug Marketing-Fachleute in meiner Stichprobe haben werde.

Der Vorteil an einem Analytics-Tool ist, dass es prinzipiell schon die komplette Grundgesamtheit „befragt“ (trackt), also alle Nutzer meiner Website (in unserem Beispiel also alle Schweizer). Damit sind auch die Marketing-Fachleute unter den Schweizern alle schon vertreten; man könnte also theoretisch repräsentative Aussagen über deren Meinung treffen. GA nimmt aber nicht alle Schweizer Marketing-Fachleute aus der Gesamtstichprobe und „fragt“ davon dann jeden Zehnten. Nein, GA rast durch alle Schweizer durch, schaut sich zum Beispiel jeden Hundertsten an, und wenn der dann Marketing-Fachfrau ist, kommt sie in das zu befragende Segment.

Nehmen wir ein klassisches Beispiel: Der Content soll besser auf die Bedürfnisse der Nutzer zugeschnitten werden. Dafür braucht die Redaktionsleiterin die On-Site-Suchbegriffe des letzten halben Jahres mit der höchsten Suchausstiegsrate (also die Besuche, die auf der Suchergebnisseite enden, weil wahrscheinlich nichts Hilfreiches gefunden wurde). Das Ganze für das mit 15% recht grosse Segment der registrierten Benutzer und nur für Suchbegriffe, die mindestens 20mal gesucht wurden. Über die letzten sechs Monate bekommen wir bei dieser Website mit etwa 500.000 Besuchen im Monat folgendes Bild:

Eingefleischte GA-Nutzer kennen das: Dreimal der gleiche Report, dreimal andere Sampling-Raten, dreimal komplett verschiedene Ergebnisse. Mit der von GA voreingestellten, „mittleren“ Standard-Sampling-Rate von in diesem Fall 5% sieht man bereits an der Zahl der Suchen (alle Begriffe wurden komischerweise 57- oder 38-mal gesucht), dass hier mit grobem Überschlag gerechnet wurde. Dreht man den Sampling-Regler auf 3/4 der maximalen Sampling-Rate, sieht der Report schon ganz anders aus: „geld“ rangiert hier nun auf einmal ganz oben, gefolgt von „ji da“. Wechselt man auf die in GA höchstmögliche Sampling-Rate von hier gerade mal 10.3%, verschwinden „geld“ und „ji da“ wieder komplett, dafür tauchen „pumps“ und „jura“ auf.

Je mehr Traffic, je komplexer das Segment, desto stärker greift GA zum Sampling, und desto grösser die Wahrscheinlichkeit, dass Daten bis zur Unbrauchbarkeit verzerrt werden. Ein Grund für High-Traffic-Websites, sich zweimal zu überlegen, ob man wirklich mit GA fahren will.

2. Individueller Support

Über kein Tool gibt es mehr Laiendokumentation als über GA. Das ist ein grosses Plus. Doch gibt es auch so noch immer genug einzigartige Probleme, die man nicht einfach per Copy & Paste lösen kann. Und in Blog-Postings steht manchmal rechter Unsinn, denn kaum ein Blogger weiss eigentlich, wie GA wirklich funktioniert. Abgesehen von der offiziellen Dokumentation von Google selbst basiert das ganze Laien-Wissen (inklusive meinem) über GA nämlich darauf, dass jemand etwas beobachtet und daraus dann folgert, dass GA so oder so funktionieren müsste.

Für mich ist es wichtig, einen Anbieter zu haben, den ich bei meinen Problemen mit seinem Tool persönlich anschreiben oder anrufen kann. Ein Anbieter, der „von innen“ in das Tool schauen kann und der mir die Zeit spart, tage- oder wochenlang selber eine Lösung zu erarbeiten – oder diese Lösung gar nicht zu finden, weil es derzeit keine gibt. Gerade die Information, dass etwas unmöglich ist, erspart dem Analysten viele Stunden, in denen er verzweifelt weiterrecherchiert, weil er ja doch irgendwo was übersehen haben könnte.

3. Rohdaten

„Tool A sagt 400, Tool B nur 300 – wie kann das sein?“ Vielen Analysten läuft bei derartigen Kundenfragen der kalte Schauer über den Rücken. Denn vom Browser des Besuchers bis zum Report kann vieles schiefgehen. Üblicherweise liegt das Problem an einer der folgenden Fehlerquellen: 1) Tracking wird nicht richtig ausgeführt, 2) Daten werden nicht richtig gesammelt/gespeichert, 3) Daten werden nicht richtig verarbeitet, 4) Reports werden nicht richtig konfiguriert, 5) Nutzer interpretiert falsch.

Einige dieser Fehlerquellen kann man mit professionellen Debugging-Tools (Werkzeug zur Fehlerdiagnose) schnell verwerfen. Bei 2) hilft aber ein Feature von bezahlten Tools ungemein: Rohdaten, also Log Files oder Datenauszüge direkt aus diesen Log Files.

Habe ich nämlich Einblick in die Log Files, dann sehe ich: Die Daten sind de facto gesammelt worden – oder auch nicht. Damit kann ich eine der häufigsten Fehlerquellen ausschliessen. Wenn ich diese Gewissheit nicht habe, agiere ich beim Prüfen aller anderen Hypothesen mit einer grundlegenden Ungewissheit. Denn die meisten Tools sieben das, was sie alles in ihre Log Files schreiben, erst einmal gründlich aus (zum Beispiel den Bot-Traffic), bevor sie für die Reports weiterverarbeiten. Bei Google Analytics bleibt man stets im Dunkeln: Man weiss nicht, was da eigentlich genau wie gespeichert wird.

Noch besser: Reichere ich die Log Files mit weiteren Daten an, kann ich auch nachträglich noch Daten für die Vergangenheit in meine Reports bringen. Oder ich kann einem Tool wie bei Webtrends sagen, es solle die Log Files noch einmal nach anderen Kriterien verarbeiten, z.B. weil ich einen Profilfilter vergessen hatte und nun der ganze interne Traffic in mein Live-Profil eingelaufen ist. Passiert mir das bei GA, sind die Daten für immer zerstört.

Sampling, Support und Rohdaten sind für mich also essentiell. Kein Wunder vielleicht, dass es vor allem diese drei Dinge sind, durch die sich das noch recht junge „Google Analytics Premium“ von seinem kostenlosen Kollegen unterscheidet. Dafür muss man allerdings so tief in die Tasche greifen (in der Regel sechsstellig), dass es sich für kleine und mittlere Unternehmen meist nicht lohnt. Lohnen würde sich stattdessen vielleicht eher ein Blick auf ein ganz anderes Tool.

Bevor Sie blind auf Google Tag Manager setzen: 6 Punkte zum Nachdenken

Immer mehr Unternehmen führen Tag-Management-Systeme (TMS) ein. Dabei wählen viele den einfachsten Weg und setzen auf den kostenlosen Google Tag Manager. In vielen Fällen lohnt es sich allerdings, etwas weiter zu schauen. Prüfen Sie diese sechs Punkte, bevor Sie sich für Ihr TMS entscheiden.