Le blog de LCVA

Le temps de chargement d’une page web a toujours été une véritable problématique pour les professionnels du référencement naturel. S’il s’agit d’un critère de ranking à part entière, au même titre que le contenu et les liens, la question de son dégré d’importance subsiste.

En effet, les sites plus longs que la norme et qui sont pourtant bien positionnés dans Google sont fréquents. De ce fait, il est légitime de se demander s’il faut vraiment l’optimiser ou non, au risque d’y consacrer beaucoup de ressources pour des bénéfices difficilement perceptibles.

De la nécessité de voir plus loin que le SEO

L’époque où il était possible de détourner l’algorithme de Google en ayant recours à des techniques abusives est révolue depuis maintenant plusieurs années. Conscient des failles de son moteur, le géant américain a effectivement entrepris un chantier de taille pour rendre ses robots plus intelligents en vue d’offrir à ses utilisateurs des résultats plus pertinents et qualitatifs.

Or, le temps de chargement d’une page web est un critère de qualité prépondérant.

Bien que l’on ne sache pas précisément quel poids il occupe dans l’algorithme de Google, on a toutes les raisons de croire que celui-ci a tendance à favoriser les sites qui se chargent rapidement. Lors du SMX Paris 2014, Zineb Ait Bahajji, Webmaster Trend Analyst chez Google, a conforté cette supposition en affirmant que le temps de chargement entrait notamment en ligne de compte pour départager deux pages ayant le même niveau de ranking sur une requête.

Par ailleurs, il faut savoir que Google a plusieurs milliards de sites à parcourir quotidiennement. Cette tâche prépondérante au fonctionnement de son moteur requiert des infrastructures adaptées dont la gestion représente un coût exhorbitant, même pour Google ! On peut ainsi supposer qu’il est plus intéressant financièrement pour la firme américaine de crawler en priorité des sites rapides, moins coûteux car moins gourmands en ressources.

Et quand bien même il ne s’agirait que d’un critère de classement secondaire, rappelons-nous qu’il est on ne peut plus important pour l’expérience utilisateur (UX) !

Qu’est-ce qu’un bon temps de chargement ?

Il convient de s’interroger sur la définition d’un bon temps de chargement, car oui, il doit être optimisé !

Encore une fois, il est difficile d’annoncer avec exactitude un quelconque délai puisque Google n’a jamais communiqué précisément à ce sujet. Toutefois, les résultats de plusieurs études poussent à croire qu’une page web doit mettre entre 2 et 3 secondes à se charger pour préserver ses chances de bien se positionner dans Google.

Quels leviers actionner pour l’améliorer ?

Avant toute chose, il vous faudra mesurer le temps de chargement des pages de votre site à l’aide d’un outil tiers.

Le plus connu de ces outils est incontestablement GTmetrix. Celui-ci vous indiquera les points forts de chaque page analysée ainsi que leurs axes d’amélioration. Il est très utile car il vous permettra d’identifier les optimisations à apporter pour ensuite quantifier les ressources et éventuellement le budget nécessaire à leur mise en place.

Soyez quand même vigilant dans votre interprétation des résultats. GTmetrix est un outil développé par GT.net, une société américaine spécialisée dans l’optimisation des performances d’hébergement qui est basée au Canada, pays où se trouvent également ses serveurs. L’environnement dans lequel sont opérés ses tests n’a donc rien à voir avec celui de la majorité des internautes. Par conséquent, la note indiquée par GTmetrix, tout comme celle des autres outils du même registre, n’a aucune valeur, si ce n’est symbolique.

Enfin, dernière remarque et non la moindre, ne vous contentez pas de mesurer uniquement le temps de chargement de la page d’accueil de votre site.

Choisir une offre d’hébergement adaptée

Dans tous les cas, vous devez savoir que les critères influant sur le temps de chargement sont nombreux, à commencer par l’hébergement.

A titre de comparaison, un site institutionnel de quelques pages et une boutique en ligne avec un catalogue composé de plusieurs milliers de références ne pourront pas tourner correctement sur le même type d’hébergement. Alors que le premier n’aura vraisemblablement pas besoin d’une configuration complexe, le nombre de requêtes conditionnant le fonctionnement du second impliquera un serveur idéalement dédié, avec une bande passante adaptée.

Dans tous les cas, il vous faudra bénéficier d’un serveur stable car Google n’apprécie pas les erreurs d’exploration. Si vous constatez une croissance des erreurs 500 via les Webmaster Tools et/ou un logiciel de crawl (Xenu, Integrity, …), posez-vous des questions sur le paramétrage de votre serveur. Si celles-ci persistent malgré l’apport de corrections, il y a de fortes chances pour que l’heure du changement ait sonné.

Mettre en place un cache serveur

S’il y a bien une pratique à adopter quel que soit le type d’hébergement, c’est la mise en place d’un système de cache. Sur Prestashop, WordPress ou n’importe quel autre CMS, des modules existent permettant la mise en cache des pages d’un site. Pour faire simple, cela revient à stocker sur le serveur du site l’intégralité de la page visitée par un internaute de façon à ce que celle-ci se charge plus rapidement lors de sa prochaine visite sans recharger sa partie dynamique.

Optimiser le code source de son site

Le code source doit aussi faire l’objet d’une attention particulière.

Conformément à ce que nous expliquons dans le point précédent, le nombre de requêtes a un impact non négligeable sur le temps de chargement. De même, des scripts mal codés peuvent entrainer une accumulation d’erreurs, 500 et 404, qu’il faut à tout prix éviter pour préserver l’état de santé de son site.

Ces erreurs constituent un frein au référencement en ce sens qu’elles réduisent le capital crawl qu’alloue Google à chaque site. Autrement dit, elles augmentent le temps qu’il faut à ses robots pour crawler l’intégralité d’un site, d’où la corrélation entre le temps de chargement et le nombre de pages crawlées.

Cette corrélation est observable directement dans les Webmaster Tools. Pour aller plus loin, il faudra se pencher du côté des logs, qui peuvent être analysés via différentes solutions telles que celles de Watussi ou encore Botify.

Être aux petits soins avec ses images

Il est recommandé de spécifier les dimensions des images lors de leur insertion. Mais attention, cette pratique doit être menée en tenant compte des contraintes relatives à la version responsive de votre site. De plus, pourriez avoir intérêt à les héberger sur un espace de stockage réservé en recourant à un CDN (Content Delivery Network). Cette option n’est cependant envisageable que si votre hébergement le permet. Enfin, veillez à bien enregistrer vos fichiers en 72dpi en .jpg, .png ou encore .gif.

En conclusion

Si vous pensez être confronté à une problématique SEO à cause du temps de chargement de votre site, n’hésitez pas à nous consulter. Nos experts sont en mesure de vous accompagner pour réaliser un audit complet de celui-ci pour ensuite vous préconiser et déployer les solutions qui s’imposent. A cette occasion, nous vous indiquerons si le jeu en vaut véritablement la chandelle car certaines optimisations peuvent avoir un coût conséquent.

Articles de la même catégorie
PrestaShop

PrestaShop plus que jamais n°1 des CMS e-commerce en France

Posté par Samuel Demonchy

Sauf dans certains cas particuliers nécessitant un développement sur mesure de A à Z, il est aujourd’hui inconcevable de créer un site Internet sans passer par un CMS (Content Management System). Ce type de solution, le plus souvent Open Source, permet en effet de gagner un temps précieux dans la production puis dans l’administration d’une […]


Lire plus
Google AdWords

Gagnez en visibilité grâce à Google AdWords

Posté par Samuel Demonchy

Selon des études régulières sur le référencement, près de la moitié des internautes arriveraient sur un site via les résultats de recherche naturels, ce qui fait du SEO le premier levier d’acquisition de trafic. S’il est très difficile et illogique de généraliser cette tendance, on peut tout de même affirmer qu’il reste une part conséquente de trafic […]


Lire plus