Web Performance : l'internet devient-il plus lent ou plus rapide ?

Deux courants s'opposent sur le temps de chargement des pages web. L'un observe une accélération régulière des accès aux sites. L'autre, un ralentissement depuis plusieurs années. Tous deux semblent néanmoins avoir raison.

ADSL, VDSL, Fibre, 3G, 4G... On ne compte plus les technologies qui rendent l'accès internet plus rapide. Google l'a d'ailleurs constaté dans les données de Google Analytics. Même avec des pages web de plus en plus lourdes (+56 % en un an), les temps de chargement ont légèrement baissé sur les PC de bureau et carrément chuté de 30 % sur les mobiles. Les raisons sont évidentes : amélioration de l'infrastructure mondiale, passage aux réseaux de nouvelle génération filaires et cellulaires. Sans oublier les optimisations dans les navigateurs (Javascript, compression, etc.), notamment sur les mobiles désormais équipés de processeurs ultraperformants.

Temps de chargement médian des pages web

Le baromètre de Radware constate, au contraire, que les sites de e-commerce deviennent plus lents chaque année (enregistrement nécessaire), avec une chute notable de 14 % rien qu'en 2013. Radware s'appuie sur l'outil WebPagetest qui simule les temps de chargement réels côté utilisateur. Il analyse également le temps d'attente avant de pouvoir interagir avec la page. Ses résultats sont éloquents. Sur les 100 premiers sites de e-commerce mondiaux, seuls 18 % sont actifs en moins de 3 secondes. A l'opposé plus de 26 % ne répondent toujours pas après 8 secondes d'attente : une éternité pour des internautes toujours plus impatients.

Temps d'attente avant interaction sur les 100 premiers sites de e-commerce

Meilleurs débits, mauvaise expérience utilisateur

Alors qui a raison ? Google qui se félicite des progrès dans l'infrastructure ou Radware qui s'inquiète du ralentissement des grands sites de e-commerce ? Avant de répondre, il convient de rappeler qu'aucune de ces études n'est totalement désintéressée. Google a tout intérêt à montrer comment l'internet se bonifie. Sa promotion de la fibre, les optimisations dans Chrome, les outils Google Analytics... tout participe à poser l'internet comme l'Eldorado des applications distribuées. Radware, de son côté, vend des services d'accélération web. Donc agiter des épouvantails sur la baisse de performances ne peut que mettre en valeur ses propres « solutions ».

Pour autant, personne ne remet en cause le sérieux de ces études. S'il y a contradiction, elle est à chercher dans les métriques choisies pour affirmer que l'internet va plus ou moins vite. Google s'appuie sur les temps de chargement, mesure qui tend à favoriser les accès réseau. Radware met en avant la perception de l'utilisateur, le moment à partir duquel le site devient interactif. Or il est tout à fait concevable d'avoir à la fois, des temps de chargement qui s'améliorent, mais des sites web qui apparaissent moins rapides. Explications :

Contrairement à ce qu'essaient de faire croire les opérateurs, les débits sont loin d'être la clé d'un internet plus rapide. NCC Group a par exemple comparé la vitesse d'affiche du site d'informations anglais The Register sur des connexions 3G, ADSL, câble et fibre. Alors que les débits augmentent de 333 % entre l'ADSL (1,5 Mbps) et le câble (5 Mbps), les gains en téléchargement dépassent à peine 12 %. De même, les gains de 1330 % entre l'ADSL (1,5 Mbps) et la fibre (20 Mbps) se traduisent par une amélioration des performances de simplement 32 %.

Ces résultats s'expliquent par une donnée incompressible : la latence, le temps que met la requête pour arriver à destination et revenir. Et selon Bob Dowson, l'un des experts de NCC Group, « avec le haut débit, la latence a désormais un impact plus important sur les performances que le débit. » Dans l'exemple anglais, les réseaux ADSL (1,5 Mbps) et 3G (1,6 Mbps) offrent un débit sensiblement équivalent. Pourtant l'ADSL avec sa latence de 50 ms, bénéficie d'une vitesse trois fois supérieure à la 3G (latence de 300 ms). En termes de perception donc, l'expérience utilisateur restera sensiblement équivalente lors d'un passage de l'ADSL au câble (faible différence de latence). En revanche, l'internaute mobile basculant à la 4G verra un réel changement avec des débits décuplés, mais surtout une latence divisée par sept (300 à 40 ms).

Mais toutes les applications ne profitent pas de l'envolée des débits. Le téléchargement est aujourd'hui le premier bénéficiaire, notamment parce qu'il reste peu sensible à la latence (une connexion, un élément à télécharger). A l'inverse, une page web, doit multiplier les connexions et donc les allers retours pour charger les différents objets : html, images, scripts, feuille de style, etc. Aujourd'hui, une page contient 92 objets en moyenne. Cela représente autant d'allers retours avec des temps de latence incompressibles allant jusqu'à 300 ms. Avec la multiplication constante du nombre d'objets dans les pages, l'augmentation des temps de chargement semble donc inéluctable.

Beaucoup préfèrent s'en remettre à l'augmentation des débits

Pour limiter ces effets, les propriétaires de sites web ont donc mis en place une série d'outils pour accélérer leurs sites. Tout d'abord, les CDN (Content Delivery Network) qui rapprochent le contenu de l'utilisateur et réduisent la distance à parcourir lors de chaque aller-retour. Les bonnes pratiques se sont également développées : compression des images, du texte, chargement différé de ce qui n'est pas visible immédiatement, etc.

« Malheureusement beaucoup préfèrent s'en remettre à l'augmentation des débits et aux performances des navigateurs, regrette Steve Souders, considéré comme le Pape de la performance web. Cela me désespère de voir les bonnes pratiques de moins en moins mises en œuvre. » Sur les 1000 sites qu'il a observés, les développeurs compressent moins, multiplient les connexions ou complexifient leurs pages. « Cela n'augure rien de bon ! » prévient l'expert.

L'actuelle bascule vers le mobile explique sans doute ce changement. La cohorte d'appareils avec des écrans « full HD » ou « Retina » oblige à afficher, même sur mobile, des images haute-définition, beaucoup plus valorisantes. De même, les sites auto-adaptatifs en Responsive Design utilisent un code bien plus complexe, beaucoup plus difficile à accélérer que le bon vieux site épuré type m.monsite.com. Là encore, l'expérience utilisateur reste plus importante que la vitesse brute de chargement.

Malheureusement, la tendance à l'embonpoint des pages web n'est pas prête de s'inverser. Aujourd'hui plus sociaux, plus ouverts, plus modulaires, les sites doivent davantage faire appel à des scripts externes : Facebook, Twitter, Publicité, Analytics, paiements, etc. Des éléments dynamiques difficiles à copier dans le cache des CDN et dont les performances ne sont plus maîtrisées par le site hôte.

Alors Internet est-il plus rapide ? Probablement. Mais avec la complexité grandissante des sites et les problèmes de latence réseau, il va devenir de plus en plus compliqué de garantir une expérience utilisateur satisfaisante, notamment sur les mobiles. On n'a donc pas fini de parler de vitesse d'affichage des pages et de ressenti de l'utilisateur.
Ces résultats s'expliquent par une donnée incompressible : la latence, le temps que met la requête pour arriver à destination et revenir. Et selon Bob Dowson, l'un des experts de NCC Group, « avec le haut débit, la latence a désormais un impact plus important sur les performances que le débit. » Dans l'exemple anglais, les réseaux ADSL (1,5 Mbps) et 3G (1,6 Mbps) offrent un débit sensiblement équivalent. Pourtant l'ADSL avec sa latence de 50 ms, bénéficie d'une vitesse trois fois supérieure à la 3G (latence de 300 ms). En termes de perception donc, l'expérience utilisateur restera sensiblement équivalente lors d'un passage de l'ADSL au câble (faible différence de latence). En revanche, l'internaute mobile basculant à la 4G verra un réel changement avec des débits décuplés, mais surtout une latence divisée par sept (300 à 40 ms).

Mais toutes les applications ne profitent pas de l'envolée des débits. Le téléchargement est aujourd'hui le premier bénéficiaire, notamment parce qu'il reste peu sensible à la latence (une connexion, un élément à télécharger). A l'inverse, une page web, doit multiplier les connexions et donc les allers retours pour charger les différents objets : html, images, scripts, feuille de style, etc. Aujourd'hui, une page contient 92 objets en moyenne. Cela représente autant d'allers retours avec des temps de latence incompressibles allant jusqu'à 300 ms. Avec la multiplication constante du nombre d'objets dans les pages, l'augmentation des temps de chargement semble donc inéluctable.

Beaucoup préfèrent s'en remettre à l'augmentation des débits

Pour limiter ces effets, les propriétaires de sites web ont donc mis en place une série d'outils pour accélérer leurs sites. Tout d'abord, les CDN (Content Delivery Network) qui rapprochent le contenu de l'utilisateur et réduisent la distance à parcourir lors de chaque aller-retour. Les bonnes pratiques se sont également développées : compression des images, du texte, chargement différé de ce qui n'est pas visible immédiatement, etc.

« Malheureusement beaucoup préfèrent s'en remettre à l'augmentation des débits et aux performances des navigateurs, regrette Steve Souders, considéré comme le Pape de la performance web. Cela me désespère de voir les bonnes pratiques de moins en moins mises en œuvre. » Sur les 1000 sites qu'il a observés, les développeurs compressent moins, multiplient les connexions ou complexifient leurs pages. « Cela n'augure rien de bon ! » prévient l'expert.

L'actuelle bascule vers le mobile explique sans doute ce changement. La cohorte d'appareils avec des écrans « full HD » ou « Retina » oblige à afficher, même sur mobile, des images haute-définition, beaucoup plus valorisantes. De même, les sites auto-adaptatifs en Responsive Design utilisent un code bien plus complexe, beaucoup plus difficile à accélérer que le bon vieux site épuré type m.monsite.com. Là encore, l'expérience utilisateur reste plus importante que la vitesse brute de chargement.

Malheureusement, la tendance à l'embonpoint des pages web n'est pas prête de s'inverser. Aujourd'hui plus sociaux, plus ouverts, plus modulaires, les sites doivent davantage faire appel à des scripts externes : Facebook, Twitter, Publicité, Analytics, paiements, etc. Des éléments dynamiques difficiles à copier dans le cache des CDN et dont les performances ne sont plus maîtrisées par le site hôte.

Alors Internet est-il plus rapide ? Probablement. Mais avec la complexité grandissante des sites et les problèmes de latence réseau, il va devenir de plus en plus compliqué de garantir une expérience utilisateur satisfaisante, notamment sur les mobiles. On n'a donc pas fini de parler de vitesse d'affichage des pages et de ressenti de l'utilisateur.