Remettre en cause la mesure de la performance dans le digital

Par Jean-Marie Benoist

Questionner la mesure de la performance d’un média n’est pas une pratique nouvelle : c’est arrivé pour la télévision, la radio, les journaux… C’est aujourd’hui au tour du digital de connaître ce débat, suite notamment à plusieurs révélations consécutives des acteurs majeurs du secteur, et ce au moment où les investissements dans le digital explosent. Quelle est l’ampleur du problème ? Cela cache-t-il autre chose ? Et enfin, quelles solutions peut-on proposer ?

Pour en discuter, nous avons invité chez Linkfluence Hélène Chartier (Syndicat des Régies Internet), Frédéric Daruty (Groupe Cerise – Prisma Media) et Rodolphe Rodrigues (AXA). Une session organisée et animée par Rémi Douine (The Metrics Factory).

Depuis quelques mois, les nouvelles s’accumulent : le rapport de l’ANA, aux Etats-Unis, dénonçant notamment les données générées par des bots ; les confessions de Facebook, YouTube et Google – de loin les acteurs majeurs du secteur – admettant des erreurs de calcul sur certains de leurs indicateurs ; la prise de position forte de Procter & Gamble, qui n’investira plus dans le digital tant que la mesure ne sera pas bonne… La mesure de la performance, qui est au cœur du marché publicitaire sur le web, semble sérieusement remise en question, au point de pousser Facebook et Google, pour la première fois de leur histoire, à accepter qu’un tiers jette un œil sur leurs algorithmes. Plus préoccupant encore, tout cela se produit alors que les investissements sont en train de basculer de plus en plus vers le digital. « Au premier semestre 2016, le digital est passé devant la TV en niveau d’investissement, et cela s’est confirmé sur le global 2016 souligne Hélène Chartier (SRI). Pour l’instant, le search en focalise la majorité – 55% -, et le display le tiers ; mais aux Etats-Unis, les deux sont quasiment à égalité, et la même tendance devrait suivre ici. » Cette augmentation est principalement captée par le social – c’est-à-dire par Facebook et YouTube, qui dominent largement le reste. Dans un tel contexte, il est peu étonnant que le soudain manque de fiabilité des données à la source de tout ce marché provoque des remous.

Un faux problème ?

Mais en fait, « la fraude est un vrai faux problème », estime Rodolphe Rodrigues (AXA). Elle vient de l’émergence des réseaux publicitaires, il y a une dizaine d’année – avant la programmatique – où c’était intéressant pour gagner beaucoup d’argent. Et pour la performance, à l’époque, on se fichait d’où on était affiché – la performance économique ne se jugeant qu’au clic. Cela pouvait avoir un impact de marque, mais pas financier. En fait, de façon générale, si le site n’est pas rémunéré au CPM, il n’y a pas de fraude. Dès lors que l’on communique sur des sites de marque, la problématique de la fraude disparaît complètement… car elle ne peut pas profiter à l’éditeur. Qui plus est, ces derniers ne peuvent pas se permettre, comme Facebook et Google, de se contenter de partager les données qu’ils auront récoltés eux-même en demandant aux annonceurs de leur faire confiance : « pour nos sites, en tant qu’éditeur – et contrairement à Facebook – nous sommes audités par tout le monde, et certifié », souligne Frédéric Daruty (Groupe Cerise – Prisma Media). De fait, tout cela limite l’étendue des dégâts : cette fraude est limitée aux réseaux en blind en programmatiques, qui pourraient du coup disparaître. Mais si le problème est plus limité que l’on croit, il n’est pas non plus à ignorer. « Ces pratiques de certains réseaux ont entraîné une baisse des prix et certaines attentes autour de la performance attendue, y compris sur des médias classiques, en payant au CPM », explique Frédéric Daruty (Groupe Cerise – Prisma Media). Ce qui a poussé certains médias – pour répondre aux attentes des annonceurs – à multiplier les emplacements, l’interstitiel, etc., ce qui les a en quelque sorte pris à leur propre piège.

Des mesures inadaptées

D’une certaine façon, toutes ces questions de fraude éclipsent des problèmes plus fondamentaux encore.

« Les débats ne sont pas centrés sur les bons sujets, estime Rodolphe Rodrigues (AXA). On peut mesurer aujourd’hui des choses ahurissantes. Mais on se focalise sur des KPI et des metrics qui n’apportent pas grand-chose à la stratégie ; or une stratégie média n’inclut pas que du digital. On a en fait besoin d’une mesure globale de son efficacité. »

Le multicanal est aujourd’hui la règle… Quand une entreprise réalise une opération de branding, c’est avec deux objectif en tête, un business et un corporate – valoriser la marque pour la faire connaître. « Si nous pratiquons de plus en plus le digital branding, ce n’est pas par fanatisme, mais parce que c’est le seul moyen de toucher une certaine population – pas aussi jeune que l’on pense – qui ne regarde plus la télévision », continue Rodolphe Rodrigues (AXA). Ce dont les annonceurs ont besoin, en un sens, ce sont des mesures qui permettent de décider du bon split entre les différents canaux ; et aujourd’hui, les indicateurs fournis ne servent pas vraiment à ça. (Qui plus est, les réseaux sociaux ont tendance, dans leur rapport, à s’attribuer à eux seuls la responsabilité des résultats, même quand la campagne de branding a fait appel à plusieurs canaux). Il en faudrait de nouveaux, se baser sur un modèle économétrique. Il est possible, au fil du temps, de construire des modèles, qui ont besoin d’être alimentés par les outils de tracking digitaux. Par exemple, on entend beaucoup parler de visibilité – mais c’est une notion qui ne se traite pas seule : elle n’a de sens que mise en relation avec le prix auquel on achète l’espace. Autrement dit, c’est une question de ROI : il peut être plus intéressant de mener une campagne vue par 10% de la population visée plutôt que 90% compte tenu des coûts. « Pour nous, tout est performance, renchérit Frédéric Daruty (Groupe Cerise – Prisma Media). Tout dépend du prix et de l’objectif visé. Quand on fait une campagne de branding, on attend un résultat avec un bon ROI en terme de mémorisation. Mais il n’est pas possible, en tant qu’éditeur, de gagner de l’argent sur Facebook. Du coup, ce qui nous intéresse vraiment n’est pas tant ce qui s’y passe que le trafic qu’il nous apporte. Et cela, nous pouvons le mesurer, avec des KPI tels que temps passé, pages vues, vidéos vues… Ensuite, avec nos outils de monétisation, nous savons dire si les résultats sont positifs ou non. » Ces questions de ROI sont rendues plus complexe encore par le fait que si les frais d’affichage augmente, ce n’est rien à côté des coûts créatifs : si l’on respecte les idées actuelles en terme de ciblage, et d’adaptation du message aux cibles, cela veut dire faire produire 10 vidéos et non une seule. Autant dire que, pour l’instant, ceux qui vont jusque-là sont rares.

Nécessité d’un acteur tiers

Un autre problème de fond que n’adresse pas le débat actuel sur la mesure est celui de qui la réalise. « Plutôt que de savoir si Facebook fait oui ou non bien son travail, je voudrais qu’il m’autorise à utiliser un outil tiers pour mesurer », estime Rodolphe Rodrigues (AXA). C’est ce qui s’est passé pour la télévision, la radio, ou encore la presse ; et avoir un organisme commun revalorise fortement cette mesure. « Les annonceurs ont besoin d’avoir un référent commun, pour comparer leurs investissements, souligne Hélène Chartier (SRI). La notion d’une mesure commune, partagée, indépendante et tierce est très importante. » Facebook et Google ne sont pas vraiment dans cette optique. Un annonceur, aujourd’hui, doit réconcilier plus de 30 points de contact… ce qui ne facilite pas la tâche. Et du côté des éditeurs, régie et publicité, il y a ce même besoin d’un référent commun : tout le monde devrait être jugé sur les mêmes bases et selon les mêmes principes que les autres.

“Aujourd’hui, quand on veut la transparence, on peut, la plupart du temps, l’avoir , souligne Hélène Chartier (SRI). La bonne nouvelle, c’est que l’on arrive à déceler le fait qu’il y a de la fraude aujourd’hui, grâce à tous ces outils pour le faire. Nous sommes donc plus que jamais, en capacité de lutter et d’améliorer les sites & les offres publicitaire, et cela grâce à ces nombreuses nouvelles mesures tierces (fraude, brand safety, visibilité, …) et indépendantes qui doivent rassurer le marché. »

Un contexte en perpétuelle mutation

Malgré ces bonnes nouvelles, plusieurs obstacles compliquent singulièrement la poursuite de ces deux objectifs (une mesure plus économétrique et l’apparition d’une instance tierce de mesure). Le premier, et non des moindres, est le fait que le digital évolue à un rythme infernal : les nouveautés et innovations se multiplient, et il faut donc en permanence s’y adapter. Les audiences migrent sur le mobile, et la vidéo prend de l’importance… « Le média évolue tout le temps, et les demandes avec », souligne Hélène Chartier (SRI). Cette rapidité pose également plusieurs problèmes de fond. Le branding est, par beaucoup d’aspect, une opération à long terme ; et de plus en plus, le digital est régi par le buzz, l’excitation temporaire, souvent pour des choses qui n’existent pas encore, ou pour des choses qu’on ne va pas mettre en place. Cela ne facilite pas l’élaboration de stratégies complètes, mais surtout, cela rend plus difficile l’acquisition des compétences et expertises techniques nécessaires – voire maintenant indispensable – pour utiliser au mieux ces outils. « Depuis quelques années, le niveau d’expertise chez les acteurs du digital est en baisse, estime Rodolphe Rodrigues (AXA). Cela va trop vite, et les gens n’ont pas la capacité à emmagasiner cette connaissance dans des délais aussi courts. Sans oublier un turn-over très important. ».

Enfin, un dernier obstacle – et non des moindres – est tout récent, et d’origine parlementaire. L’Europe cherche à remplacer la directive de 1995 pour le projet de réglement ePrivacy, et pour l’instant, le projet semble vouloir mettre à mal le système de cookie, sur lequel repose… toute la mesure. L’ensemble des acteurs – les annonceurs, éditeurs, bref, tout le monde – a émis une réaction commune (un exploit), pointant notamment du doigt que en éteignant les cookies tierces (en les paramétrant off par défaut dans les navigateurs), c’est non seulement tout un pan du marché qui est mise en danger, mais qu’en plus cela revient à tacitement confier la gestion de la vie privée des Européens aux géant américains du web. Une affaire à suivre…

Les trois points à retenir :

  • La fraude liée à la mesure de la performance est encore forte, mais reste circonscrite
  • La question n’est pas tant le risque de fraude que l’inadéquation des mesures à ce qu’attendent les annonceurs comme KPI
  • Un acteur tiers, indépendant, est indispensable pour que tous les acteurs puissent avoir un référent commun et partagé

Une session organisée par le

Logo-smc-1

 

Retrouvez également nos articles sur le blog du SMC sur Zdnet :

ZDNet-partenriat-SMC