Wie wirkt sich die Ladezeit einer Seite auf das Engagement aus?
Haben diese Hunderte von Zeilen extern geladenen Javascript-Codes Auswirkungen auf die Ladegeschwindigkeit einer Seite? Um wie viel? Und wie wirkt sich dies auf die Benutzeraktivität und -bindung aus? Das wollten meine Kollegen und ich herausfinden.


Googles jüngste Einführung von AMP und Facebooks Instant Articles (die beide behaupten, Nachrichtenartikel bis zu 10-mal schneller als das normale mobile Web liefern zu können) sind ein Weckruf für Zeitungen und andere Verleger auf der ganzen Welt.
Beide Initiativen wurden als Reaktion auf die zunehmend langsamen Ladegeschwindigkeiten mobiler News Sites eingeführt. Vereinfacht ausgedrückt funktionieren sie, indem sie alle überflüssigen Codes, Tracker, Tags und Beacons (sowie ein wenig Caching-Magie) entfernen, um Text- und Grafikinhalte in den Vordergrund zu stellen, ohne den sonstigen Ballast, der auf den Sites der Verleger zu finden ist.
In jedem Fall wird die abgespeckte Seite direkt von Google oder Facebook ausgeliefert. Im schlimmsten Fall könnten Nachrichtenverlage ihr Recht auf eine Plattform ganz verlieren, wenn sie das Problem der immer langsamer werdenden Sites nicht in den Griff bekommen.
Warum werden Nachrichten-Sites langsamer?
Da die traditionellen Einnahmequellen immer weiter einbrechen, müssen die Zeitungen immer kreativer werden, wenn es darum geht, Einnahmen zu erzielen. Dies geschieht u.a. durch den Einsatz ausgeklügelter Werbetechnologien, d.h. durch den Einsatz von Tags, Trackern und Beacons, um die im Internet gesammelten Verhaltensdaten zu erfassen und sie für gezieltere und wertvollere Werbeeinblendungen zu nutzen.
Eine Vielzahl von Ad-Tech-Start-ups ist aus dem Boden geschossen, um diesen Bedarf zu decken. Der Nachteil ist, dass die zahllosen Plattformen und Netzwerke - alle mit ihren eigenen Tags und Trackern, die bei jedem Seitenaufruf abgefeuert werden - einen tiefgreifenden Einfluss auf die Ladegeschwindigkeit der Seiten haben.
Die Dinge werden auch nicht besser.
Diese Studie vom Juli 2015 ergab, dass auf den Homepages von 20 großen US-amerikanischen und europäischen Verlagen etwa 500 verschiedene externe Javascript-Schnipsel geladen wurden. Neun Monate später ist diese Zahl auf fast 700 angestiegen.
Beeinflussen diese Hunderte von Zeilen extern geladenen Javascript-Codes die Ladegeschwindigkeit einer Seite? Um wie viel? Und welche Auswirkungen hat dies auf die Nutzerbindung und die Kundenbindung?
Meine Kollegen und ich haben uns auf den Weg gemacht, um das zu verstehen. Sie brauchen Tags auf Ihrer Site, eine Testplattform, eine Analyseplattform usw., aber Sie müssen auch die damit verbundenen Auswirkungen auf die Leistung im Auge behalten und sicherstellen, dass Sie genug Nutzen daraus ziehen, um den Latenzverlust zu rechtfertigen.
Quantifizierung der Auswirkungen der Ladegeschwindigkeit von Seiten
The Telegraph - eine 161 Jahre alte britische Broadsheet-Zeitung - konzentriert sich auf die Bereitstellung hervorragender digitaler Produkte und Erlebnisse durch A/B-Testing.
Wie viele andere Verlage auf der ganzen Welt konzentriert sich auch The Telegraph - eine 161 Jahre alte britische Broadsheet-Zeitung - auf die Bereitstellung hervorragender digitaler Produkte und Erlebnisse.
Anfang 2014 richtete das Unternehmen ein brandneues Produkt- und UX-Team ein und beauftragte kurz darauf Easter Island Heads mit dem Aufbau eines internen A/B-Testing-Programms mit Optimizely.
Die Site-Performance war ein Thema, das immer wieder auftauchte, als wir begannen, in Meetings mit Interessenvertretern aus dem gesamten Unternehmen einen Test-Backlog zu definieren.
Wie sie uns erzählten, forderte das Werbeteam ständig neue Tracking-Skripte für die Site, um angesichts der ehrgeizigen und unerbittlichen Umsatzziele die CPMs zu erhöhen. Als Reaktion darauf sprach das Technikteam über 'Leistungsbudgetierung' und andere Maßnahmen, um die Verlangsamung der Seiten einzudämmen, stellte aber fest, dass es in Wirklichkeit nicht viel zu tun gab.
Der Hauptgrund dafür waren die Metriken, bzw. deren Fehlen. Abgesehen von dem allgemeinen Gefühl, dass die Verlangsamung der Site keine so gute Idee war, hatten sie keine greifbaren Messwerte, um dies zu beweisen.
Das Anzeigenteam hingegen konnte nachweisen, dass die neuen Tracker Einnahmen generierten. Das ist eine ziemlich schwierige Kennzahl, obwohl fast jeder in der Branche der Meinung war, dass eine Verlangsamung der Site langfristig tiefgreifende Auswirkungen auf das Engagement und die Bindung der Nutzer haben könnte.
Mit dem Segen des Head of Product des Telegraph, Alex Watson, machten der Entwickler Stephen Giles und ich uns daran, einen A/B-Test zu entwerfen, um das Laden externer Tags zu simulieren. Wir würden die Site künstlich verlangsamen, um die Auswirkungen auf die allgemeine Benutzerbindung zu messen und die Beziehung zwischen der Site-Geschwindigkeit und dem Gesamtumsatz zu ermitteln.
Revolutionize your digital strategy
Die Dinge verschlechtern, um sie besser zu machen
Zu diesem Zeitpunkt fügte The Telegraph der Site jeden Monat zwischen einem und fünf neue Tracking-Tags hinzu.
Stephen entwickelte eine Reihe von benutzerdefinierten Ad Block Pro-Skripten, um einige dieser Tracker selektiv zu entfernen, damit wir die Auswirkungen auf die Seitenladeleistung besser verstehen konnten.
Anschließend haben wir die Ladezeiten der Seiten immer wieder sorgfältig getestet und festgestellt, dass die durchschnittliche Latenzzeit für jedes Tag zwischen 1 und 5 Sekunden lag.
Es wäre zwar schwierig, die bestehenden Tags auf der Site für die Zwecke des Tests zu entfernen, aber wir dachten uns, dass wir versuchen könnten, in die Zukunft zu blicken, um zu verstehen, welche Auswirkungen die Hinzufügung neuer Tracker auf das Nutzerengagement haben könnte, gemessen an den Gesamtseitenaufrufen pro Variante.
Wie wir die Site (absichtlich) verlangsamt haben
Die Latenz wurde für jede Variante in Optimizely mit einer Javascript-Methode erzeugt, die die Funktion 'Document Ready' verzögerte und einen Aufruf an eine Amazon EC2-Instanz tätigte, die zusätzlichen Code enthielt, der dieselbe Verzögerungsmethode enthielt.
Indem wir diese Variablen veränderten und testeten, konnten wir vier konsistent proportionale Verzögerungen für vier verschiedene Varianten herausfinden:
- Variante A: ~4 Sekunden
- Variante B: ~8 Sekunden
- Variante C: ~16 Sekunden
- Variante D: ~20 Sekunden
Bei langsameren Verbindungen war die Verzögerung größer und bei schnelleren Verbindungen geringer, aber wir fanden heraus, dass sie mehr oder weniger genau proportional war.
Was wir entdeckt haben
Wir haben den Test nur mit einem winzigen Bruchteil des Datenverkehrs durchgeführt, konnten aber dennoch einige hunderttausend Besucher über einen Zeitraum von zwei Wochen testen.
Durch die Integration von Optimizely mit Adobe Analytics waren wir in der Lage, eine breite Palette von Engagement-Kennzahlen zu messen (Anzahl der wiederholten Besuche, Seiten pro Sitzung usw.) und die Ergebnisse nach verschiedenen Benutzersegmenten aufzuschlüsseln (z. B. Abonnenten vs. Nicht-Abonnenten), um das Gesamtbild richtig zu verstehen.
Dieses einfache Optimizely-Ziel, bei dem die Gesamtseitenaufrufe pro Variante gemessen wurden, gibt jedoch einen grundlegenden Überblick über das, was wir gefunden haben:
- Variante A: ~4 Sekunden Verzögerung -11,02% Seitenaufrufe
- Variante B: ~8 Sekunden Verzögerung -17,52% Seitenaufrufe
- Variante C: ~16 Sekunden Verzögerung -20.53% Seitenaufrufe
- Variante D: ~20 Sekunden Verzögerung -44.19% Seitenaufrufe
Je mehr wir die Site verlangsamten, desto seltener kehrten die Nutzer auf die Site zurück und desto weniger Seiten riefen sie auf.
Wir waren überrascht, dass die Telegraph-Leser angesichts der erheblichen Verzögerungen beim Laden der Seiten ziemlich loyal und widerstandsfähig waren. Dies spiegelt zweifellos die Natur der britischen Presse wider, aber die Nutzer anderer Sites sind wahrscheinlich nicht so geduldig: Ein eingefleischter Telegraph-Leser wird nicht plötzlich anfangen, den Guardian zu lesen, selbst wenn er 16 Sekunden länger auf das Laden einer Seite warten muss.
Sie werden nicht glauben, was dann passierte! (ok, Sie vielleicht)
Mithilfe einer vom internen Strategieteam des Telegraph entwickelten Kennzahl, die den monetären Wert eines Seitenaufrufs darstellt (basierend auf verschiedenen Einnahmeströmen aus Werbung, Affiliate-Partnerschaften und gesponserten Inhalten usw.), konnten wir die Auswirkungen der einzelnen Varianten auf die Gesamteinnahmen berechnen.
Auf diese Weise konnten wir uns ein genaues Bild von den Kosten machen, die jede neue Site-Änderung, die sich nachteilig auf die Seitenleistung auswirkt, für das Engagement der Nutzer bedeutet.
Auch wenn noch ein langer Weg vor uns liegt, haben die Ergebnisse dieses Tests wichtige Daten geliefert, die dazu beitragen, die Debatte über die Site-Performance zu führen, und die älteste britische Broadsheet-Zeitung mit den Daten ausgestattet, die sie benötigt, um Lesern und Anzeigenkunden gleichermaßen den besten Service zu bieten.