Amomenti

Blog Livres Ebooks A propos

Stratégies web, permission marketing, marketing 2.0, promotion interactive, Référencement, SEO, Performance Marketing, expérience utilisateur, conception web

26 juillet 2007

Faut-il avoir peur de Google Analytics ?

L’un des sujets qui anime beaucoup les blogs spécialisés dans les outils statistiques en ce moment est la récente étude de Eric Peterson (disponible en téléchargement) intitulée “The problem with free analytics” (traduction : Le problème des statistiques gratuites).

Les spécialistes les plus éminents sur la question se penchent donc sur le sujet et tous semblent se ranger plus ou moins à l’avis d’Eric. Si j’ajoute à cela les difficultés de connexion à Google Analytics (GA) que j’ai connu hier, la question est posée : faut-il avoir peur de Google Analytics ?

Il me semble dangereux de prendre des raccourcis définitifs sur ce sujet et pour bien comprendre l’enjeu “analytics” (des statistiques du web et des outils), il me paraît nécessaire de poser quelques bases essentielles.

Analytics, pourquoi faire ?
Les outils statistiques ne sont franchement pas une nouveauté et de tout temps (c’est à dire depuis une quinzaine d’années), les webmasters ont compris l’intérêt de la mesure de l’audience. Au début du web, il s’agissait de compteurs très peu fiables qui trônaient en bonne place sur les pages d’accueil. Peu de fiabilité puisqu’il suffisait de recharger la page 10 fois pour voir s’afficher 10 nouveaux visiteurs. Evidemment, les débordements ont été nombreux…

Mais le web a ainsi montré qu’à l’inverse de beaucoup de supports de communication, son utilisation pouvait être mesurée. En partant de ce constat, il est devenu possible de calculer le retour sur investissement d’un site (le fameux ROI (Return On Investissment)). Il est en effet souvent utile (voire primordial) d’établir avec précision le coût de chaque visiteur, de chaque contact, de chaque nouveau client acquis. Mais mesurer la seule audience est rapidement devenu insuffisant et les professionnels du web ont migré de la simple mesure d’audience à l’analyse statistique complète.

Que comprend une analyse statistique ?
Une analyse statistique comprend 4 grands types d’information :

  • Les caractéristiques des visiteurs (nombre de visites, fréquence, fidélité, provenance géographique…)
  • Les comportements (les pages visitées, les zones “chaudes” et “froides” d’un site ou d’une page, les scénarii qui se détachent (successions de pages))
  • Les sources du trafic (attachées à la promotion interactive elles se découpent en accès par saisie de l’url ou du nom de domaine (direct), la recherche dans les moteurs (organique), les liens externes d’autres sites (referers) et l’achat de mots-clés en liens commerciaux (cpc))
  • Les objectifs atteints (scenarii prédéfinis d’enchainements de pages conduisant à une transformation précise (achat, contact, inscription)).

Bien entendu, les simples compteurs dont je parlais auparavant n’étaient pas en mesure de proposer cette profondeur de résultat. Les outils statistiques ont donc évolué.

Les outils statistiques
Il y a de très nombreuses offres d’outils statistiques disponibles regroupées en 3 catégories :

  • Les analyses statistiques basées sur un panel d’internautes. J’en parlerai peu dans ce billet puisqu’il s’agit plus d’études que d’analyses s’appuyant sur les chiffres réels de votre site web.
  • Les outils installés sur votre serveur d’hébergement comme Urchin ou Awstats qui “compilent” tous les évènements de votre site (chargements d’images, de page, etc…). Ce sont les statistiques issues des logs du serveur (logs = évènements).
  • Les outils “déportés” utilisant un marqueur comme Xiti ou Google Analytics qui nécessitent que vous placiez un script sur les bases pour lesquels vous souhaitez une mesure. ces outils proposent des rapports en ligne et les données ne sont pas stockées sur votre serveur.

Dans cette jungle d’offres, il n’est pas toujours évident de faire le bon choix. Difficulté à laquelle s’ajoute la dimension financière.

Du gratuit, du payant ?
Un grand nombre de ces outils sont gratuits ou inclus dans une autre prestation (par exemple : Urchin sera installé par défaut par votre hébergeur sur votre site pour analyser ses logs et aucun coût supplémentaire ne vous sera facturé).

Vous pouvez également installer vous-même un outil d’analyse téléchargé gratuitement.

Il existe aussi des outils payants. Au delà des perfomances de chacun de ces outils, vous vous poserez inévitablement la question suivante : pourquoi payer pour quelque chose que je peux avoir gratuitement ? En réalité, vous payez toujours vos statistiques web, d’une manière ou d’une autre.

Les coûts réels de l’anlaytics
Je suis désolé si je vous l’apprends mais le gratuit n’existe pas. Car même s’il s’agit d’un outil sans facturation, l’outil nécessite d’être installé, la prestation peut être incluse dans l’offre d’un prestataire technique d’hébergement ou faire l’objet d’une proposition séparée.

Même dans le cas d’un outil déporté, il vous faudra installer le marqueur sur toutes vos pages, ce qui peut parfois représenter une importante charge de travail. Bien sûr dans un cas comme dans l’autre, vous pouvez confier cette tâche à des ressources internes et ainsi ne recevoir aucune facture. Le temps passé a un coût, même s’il est interne et vous auriez tort de considérer ce temps comme gratuit.

Mais le véritable coût de l’analytics n’est pas dans l’outil ou son installation : il est dans son utilisation.

Comme n’importe quel outil (du marteau à la ponceuse), il ne peut agir seul. Vous aurez besoin d’enfoncer vous même les clous et cela peut non seulement prendre du temps mais également produire un mauvais résultat si vous n’êtes pas aguerri à cette pratique. Au delà du fait qu’une mauvaise utilisation peut conduire à l’accident ou au désintérêt. Tous ceux qui se sont déjà mis le marteau sur un doigt voient de quoi je veux parler.

Il est donc difficile de comparer les offres gratuites et payantes puisqu’en réalité il faut englober la prestation d’analyse et ne pas seulement tenir compte de l’outil. Finalement, un outil gratuit pourra vous coûter plus cher et apporter de moins bons résultats qu’un outil payant vous délivrant des rapports utilisables.

Alors quel est le problème avec les outils gratuits ?
Selon Eric T Peterson, il existe une corrélation entre les choix que peut faire une entreprise pour son outil d’analyse statistique et ses résultats. Comprenez qu’une entreprise faisant le choix du gratuit est souvent inexpérimentée et accorde trop peu de ressources aux statistiques à l’inverse de ceux faisant le choix du payant qui tire de leur outil statistique des résultats probants soutenant leur commercialisation et leur promotion interactive.

“Plus la question du prix est posée par les entreprises, moins elles accordent en réalité d’importance aux résultats produits par ces outils et n’appuient donc pas leurs choix stratégiques ou tactiques sur des données chiffrées”.

Je suis d’accord avec Eric sur ce point, non pas que les dimensions “prix” ne doivent pas être un facteur de choix, mais parce que l’efficacité ne doit pas se brader. Dans son étude, Eric ne fustige d’ailleurs pas les outils gratuits en soi mais l’idée qu’un outil gratuit + un coup d’oeil réalisé en interne suffisent à produire une dimension “anaytics” efficace.

Les outils gratuits sont parfaitement efficaces si l’entreprise intègre ou délègue la compétence d’analyse de ces données. Je vous invite en complément de ce billet à lire le billet de Fred Cavazza sur la loi des 10/90. Pour 10 ? investis dans un outil statistique, vous devrez investir 90 ? d’expertise pour les comprendre (lien en bas de page).

Une dimension “Analytics” c’est forcément cher alors ?
Pas obligatoirement, tout dépendra de l’importance que vous voulez donner à votre site web, à sa promotion interactive, s’il est marchand ou non. la bonne démarche étant de définir les KPI (Key Performance Indicators) qui servent vos objectifs, autrement dit les clés précises d’analyse importantes pour votre activité web.

Par exemple, vous pouvez vous contenter de mesurer globalement les répartitions des sources de trafic (direct, organique, référents), mesurer l’impact d’une campagne d’affichage sur une zone géographique précise (attention cependant à la précision de ce type de données, si vous pouvez mesurer les impact sur les grandes régions d’un pays ou d’un pays à l’autre, vous n’obtiendrez cependant pas d’information à l’échelle d’une ville). Vous pouvez également identifier les périodes ou les horaires privilégiés de vos prospects et clients, les mots-clés auxquels ils vous associent etc…

Les possibilités sont très nombreuses et c’est pour cela qu’e l’accompagnement est essentiel. En investissant une heure avec un spécialiste, vous économisez des heures internes et vous gagnez en efficacité.

Lorsque l’on parle de retour sur investissement, il ne faut pas oublier qu’il est nécessaire d’inverstir pour obtenir un retour. L’objectif étant d’effectuer ces investissements de façon mesurée et proportionnelle. Ne seriez-vous pas prêts à investir 100 si cela vous rapportait 200 ?

Alors Google Analytics est-il un bon choix, faut-il en avoir peur ?
Bien sûr la position écrasante de Google peut inquiéter quant à sa capacité à “tenir” les prestations proposées sur Google Analytics. On peut se poser la question de savoir si les statistiques resteront une offre du géant américain.

Je pense sincèrement que oui. D’une part parce que sa position sur l’échiquier technologico-commercial lui garantit des moyens pour faire face à une concurrence qui le mettrait en danger et que la diversification de son activité pérennise l’ensemble. N’oublions pas également que la question de la pérennité ne se pose seulement pour les outils gratuits. Un outil payant peut aussi disparaître du jour au lendemain. Je crois également en Google Analytics parce qu’au delà des fonctionnalités sans cesse en évolution (la version 2 grâce au rachat de MeasureMap et la future version après le rachat de FeedBurner), Analytics est fondamentalement lié à Adwords, une manne financière importante pour Google.

Pour toutes ces raisons, je pense que Google Analytics est une bonne solution dès lors qu’on y adjoint l’expertise d’un spécialiste pour l’analyse et la production de rapports spécifiques aux KPIs retenus. Certaines entreprises comme Zengo au Québec ou L’agence Web en france en font d’ailleurs l’une de leurs offres majeures en y consacrant toute l’attention méritée.

J’ajouterai simplement et pour rassurer tout à fait sur la dimension de pérennité des données qu’il convient de s’assurer de collecter ou stocker les logs du serveur d’hébergement en complément. C’est ce que font les hébergeurs professionnels. Vous disposez ainsi de deux outils : un “marqueur” avec Google Analytics et un “analyseur de log” avec l’outil installé par l’hébergeur.

Continuez votre lecture avec :
Les statistiques, un élément essentiel pour votre site
Google Analytics 2
Fred Cavazza : la loi des 10/90
Zengo
L’agenceWeb

Lien Fred Cavazza 10/90

Catégorie : Référencement, Web 2.0, Analytics, SEO, Search Marketing |

Une réponse

  1. Juien Coquet :

    Hello Stéphane, et merci pour cette interprétation de l’étude d’Eric.

    Il se trouve que, du fait du partenariat avec Eric, nous en parlons aussi sur notre blog et il est probable qu’Eric en parle pendant notre Web Analytics Day du 14 septembre.

    Aussi juste un petit mot pour rendre à César ce qui lui appartient: la règle des 10/90 vient à l’origine d’Avinash Kaushik :) Merci à Fred d’en parler en français ;)

Publiez votre commentaire