Die Anfänge der Webanalyse

In den Anfängen des Internets gab es eine relativ einfache Methode, den Traffic Ihrer Website zu messen: die Verwendung des Server-Logs.

Frühe Analysetools haben nicht immer funktioniert.

Die Möglichkeit, die Anzahl der Besucher auf einer Website zu sehen, ist eine relativ neue Erfindung. Wenn Sie 1993 zufällig eine der 600 Websites im World Wide Web waren und den Traffic Ihrer Website messen wollten, haben Sie im Server-Log gegraben.

Das Webserver-Protokoll ist, einfach ausgedrückt, die Liste aller Aktivitäten, die ein Server durchführt. Wenn jemand Ihre Webadresse besucht, stellt der Browser eine HTTP-Anfrage (Hypertext Transfer Protocol), um die Dateien auf Ihrer Seite anzuzeigen. Eine Aufzeichnung jeder Anfrage wird im Serverprotokoll gespeichert. Darin können Sie die IP-Adresse des Besuchers sehen, wann der Besucher auf Ihrer Seite gelandet ist, welchen Browser er benutzt hat und weitere Details, die in ihrer Gesamtheit ziemlich schwer zu verstehen sind.

Aufschlüsselung einer fiktiven Zeile des Server-Logs über JafSoft.

Viel Glück für jeden Nicht-Informatiker, der versucht, aus Tausenden von Zeilen von Serverprotokollen einen Sinn zu ziehen. Dennoch sind diese Informationsprotokolle heute noch genauso relevant wie in den 90er Jahren, mit einem entscheidenden Unterschied: der Schnittstelle zur Ansicht der Daten. Das Aufkommen von Log-Analyse-Schnittstellen hat alles verändert und eine riesige Industrie der Web-Analyse hervorgebracht. Werfen wir einen Blick zurück auf die Entwicklung der Webanalyse und wie wir dahin gekommen sind, wo wir heute sind.

Ein kurzer historischer Abriss des Internets und der Webanalyse

Das Internet hat sich dramatisch weiterentwickelt. Angefangen als bloße Idee, Daten drahtlos zu speichern und auszutauschen, dauerte es fast ein Jahrhundert, bis diese Idee in die Tat umgesetzt wurde. Nach dem ersten erfolgreichen Dialog änderte sich jedoch alles – und zwar schnell. Innerhalb weniger Jahre entwickelte sich das Internet weg von etwas, das nur Informatiker nutzen konnten, hin zu einer Ressource, die Milliarden von Menschen zur Verfügung steht.

Anfang der 1900er Jahre bis 1960: Forscher beginnen mit der drahtlosen Datenübertragung zu experimentieren.

Die erste bekannte Idee des Internets wurde von Nikola Tesla Anfang des zwanzigsten Jahrhunderts erdacht. Vier Jahrzehnte später, als der Begriff „Internet“ noch nicht vollständig ausgeformt war, begannen andere, wie Paul Otlet und Vannevar Bush, mit Möglichkeiten zu experimentieren, Informationen digital zu speichern und darauf zuzugreifen.

In den 1960er Jahren schlug J.C.R. Licklider vom MIT das „Intergalactic Computer Network“ vor und unternahm den ersten erfolgreichen Versuch einer drahtlosen Datenübertragung. Dies war nicht das Internet, wie wir es heute kennen, aber eine entscheidende Vorstufe zur Gestaltung der Online-Erfahrung, die wir alle kennen und lieben.

1990: Das Internet ist geboren.

Das Internet, wie wir es heute kennen, wurde von Sir Tim Berners-Lee geschaffen, als er erfolgreich einen Weg fand, einen Dialog zu führen, der den Zugriff auf Informationen über HTML ermöglichte. Zu dieser Zeit war dies als World Wide Web bekannt.

1993: Die erste rudimentäre Web-Analytics-Lösung wird veröffentlicht.

~600 Websites sind online. Webtrends, bekannt als einer der ersten Web-Analytics-Anbieter, geht auf den Markt. Ermöglicht wurde dies vor allem durch die Entwicklung der Logfile-Analyse wenige Jahre nach der Erfindung des Internets durch Berners-Lee.

1995: Das erste Log-File-Analyseprogramm wird verfügbar.

Stephen Turner entwickelt Analog, den ersten Log-File-Analyzer, der die „Nutzungsmuster auf Ihrem Webserver zeigt.“ (Quelle) In diesem Jahr gehen Amazon.com, Craigslist, Match.com und eBay an den Start.

1996: Weitere Akteure auf dem Web-Analyse-Markt tauchen auf.

Mit Analog, das nur ein Jahr zuvor veröffentlicht wurde, wird das Internet auch für andere Menschen als Informatiker zugänglich. Zum ersten Mal können auch Marketing-Teams an der Aktion teilnehmen.

Dies schafft eine Nachfrage nach Web-Analyse-Tools, die Unternehmen helfen, den Traffic zu verstehen und zu steigern. Die Einstiegshürden sind niedrig, aber der Wettbewerb beginnt langsam zu steigen. Web-Counter wird zum Branchenführer in diesem Bereich, mit einer Spezialisierung auf das Zählen von Website-Besuchern (auch bekannt als Hit-Counting). Dahinter folgen Accrue und Omniture.

Die Ästhetik des Internets ändert sich. Besseres Webdesign und visuelle Darstellungen ersetzen statische Seiten mit einfachem Text und Links.

2005: Google Analytics hat seinen ersten Auftritt.

Im Laufe des Jahrzehnts nach der Erfindung der Hit-Zählung entwickelt sich das Internet schnell weiter. JavaScript-Tags lösen die Hit-Zählung als bestes Mittel zur Bestimmung der Website-Performance ab.

Die Zahl der Websites wächst, was dazu führt, dass immer mehr Webanalyse-Unternehmen auf den Markt kommen. Darunter ist auch Urchin, das 2005 von Google übernommen wird und schließlich zu dem wird, was wir als Google Analytics kennen.

2006: Tiefgreifende Optimierungs-Tools werden eingeführt.

Vor 2006 lieferte jedes Web-Analyse-Tool kaum mehr als einen Überblick über die Leistung einer Website. Das ändert sich, als Clicktale auf den Markt kommt und Marketingfachleuten die Möglichkeit gibt, das Nutzerverhalten auf der Seite zu verfolgen, um die Seitenleistung, die Konversionen und das gesamte Nutzererlebnis zu verbessern.

2014: Amplitude geht an den Start.

Die Mitbegründer Spenser Skates, Curtis Liu und Jeffry Wang starten Amplitude, eine Plattform für Product Intelligence und Verhaltensanalyse. Zwei Jahre später wird das Unternehmen zum Forbes 2016 Cloud 100 Rising Star ernannt. Vier Jahre später sind sie auf dem Weg zu einer Milliarden-Dollar-Bewertung.

Lassen Sie uns nun ein wenig tiefer in diese Phasen des Wandels eintauchen.

Analytik in den frühesten Tagen des Internets

Die frühen, hochtechnisierten Web-Analyse-Lösungen waren Programme, die Ihnen halfen, jeden Eintrag im Server-Log zu interpretieren. Eine gute Log-Analyse-Software konnte Ihnen helfen, die Anfragen von Bots und Crawlern von denen menschlicher Besucher im Log zu unterscheiden – das ist gut, wenn Sie sich Sorgen machen, gecrawlt zu werden, und wenn Sie genaue Daten über die Leute haben wollen, die Ihre Seite besuchen. Das Log könnte Ihnen auch sagen, wer den meisten Traffic auf Ihre Seite gebracht hat, oder ob jemand Neues auf Sie verlinkt hat.

Lassen Sie uns nun ein wenig tiefer in diese Phasen der Veränderung eintauchen mit Online Casino Schweiz

Obwohl das Server-Protokoll das Potenzial für anspruchsvolle Analysen hat, haben in den frühen 1990er Jahren nur wenige Websites den vollen Nutzen daraus gezogen. Die Analyse des Web-Verkehrs fiel typischerweise in die Zuständigkeit der IT-Abteilung. Das Serverprotokoll war besonders praktisch, wenn es darum ging, Performance-Probleme zu verwalten und Websites reibungslos am Laufen zu halten. „Unternehmen hatten typischerweise keine definierten Website-Ziele und Erfolgsmetriken“, bemerkt ein Autor des Marketing-Blogs ClickZ. „Und selbst wenn sie es taten, war das Tool nur selten so eingerichtet, dass es diese wichtigen Metriken verfolgen konnte.“

Als sich das Web entwickelte, wurde das Protokoll immer schwieriger zu interpretieren. In den ersten Tagen enthielten die meisten URLs nur eine einzelne HTML-Datei mit einfachem Hypertext, so dass ein Seitenaufruf eine HTTP-Anfrage generierte. Als die Seiten anfingen, andere Dateien (Bilder, Audiodateien, Videos, ach was!) einzubinden, mussten die Browser mehrere HTTP-Anfragen pro Seitenbesuch stellen.

Als die Browser immer ausgereifter wurden, entwickelten sie eine Technik namens Caching, bei der eine Version einer Datei vorübergehend im System gespeichert wird, um zu vermeiden, dass bei wiederholten Besuchen immer wieder neue Anfragen gestellt werden. Da aber keine neue HTTP-Anforderung ausgegeben wird, tauchen diese wiederholten Aufrufe nicht im Serverprotokoll auf.

Mit den 1997 verfügbaren Tools (WebTrends, Analog, Omniture und Accrue) kann es für ein großes Unternehmen bis zu 24 Stunden dauern, seine Website-Daten zu verarbeiten. Unternehmen, die sich mit der Analyse von Server-Logs beschäftigten, versuchten, mit der Wachstumsrate des Webs Schritt zu halten – mit unterschiedlichem Erfolg. In den späten 1990er Jahren entstand eine Lösung an einem unwahrscheinlichen Ort: dem Internet der Amateure.