Compte-rendu de la conférence "Le référencement à l'heure des réseaux sociaux"

Le 21 septembre, le Social Media Club faisait salle comble à l’occasion d’une conférence sur « le référencement à l’heure des réseaux sociaux ». Retour sur les interventions de David Degrelle de l’agence 1ère Position, Dominique Cardon, sociologue chez Orange Labs, Stéphane Arnoult, Directeur du Search chez Webedia et Simon Vissol, Directeur technique SEO d’Activis.

A retenir de cette soirée :

  • Les réseaux sociaux ne sont qu’un levier à intégrer dans une stratégie globale de SEO : ils ne génèrent pas de trafic à proprement parler. Ils génèrent des liens, qui eux vont améliorer le PageRank.
  • La décentralisation du classement de l’information augurée par le EdgeRank démocratise le web bien plus qu’il ne le dénature
  • Les interviews de nos invités disponibles ici

 

David Degrelle : « Seuls les bons contenus profitent de la viralité »

Premier rappel de la part de cet expert SEO : Facebook génère très peu de trafic vers l’extérieur. Il s’agit d’une plateforme qui concentre des services et des plug-ins, l’internaute n’a donc aucun intérêt à en sortir. A l’inverse, Google est essentiellement une plateforme de « passage » : 90 à 95% du trafic est renvoyé vers d’autres sites internet.

La dernière étude révélait que Facebook génère en moyenne 8% de trafic sur les sites d’actualité. Tandis que Twitter est à l’origine de 3,83% du  trafic du Los Angeles Times, et de moins de 2% pour le New York Times. Twitter doit être considéré comme un outil pour influencer une communauté et propager une info auprès des influenceurs, et non pour créer du trafic. Le recours aux médias sociaux doit être intégré dans une stratégie générale de SEO : Google reste aujourd’hui encore à l’origine de près de 30% du trafic !

Concernant le bouton +1 de Google, il paraît encore trop tôt pour se risquer à un pronostic. Lancé en juin 2011, il a généré quinze millions d’utilisateurs en 2 semaines pour en compter « seulement » vingt millions dans le monde en septembre. A côté des 750 millions d’inscrits sur Facebook et des 100 millions d’utilisateurs actifs sur Twitter, le bilan reste maigre. Pour autant, cette fonctionnalité ne doit pas être enterrée si rapidement : d’après les premières analyses statistiques, le bouton +1 a une capacité beaucoup plus importante que Facebook ou Twitter à générer du trafic vers un site internet. Le taux de conversion y est entre cinq et dix fois plus élevé que sur les réseaux sociaux traditionnels. Les volumes sont faibles, mais le ratio demeure intéressant. L’explication : générer du trafic, renvoyer vers l’extérieur est dans l’ADN même de Google.

A propos de Google Panda, le jugement de David Degrelle est sans appel : il ne s’agirait que d’une « mascarade de Google qui montre là son impuissance à lutter contre le spam ». Les techniques de back links continueraient de très bien marcher, de même pour les contenus spinnés (un contenu retravaillé automatiquement avec des synonymes pour le dupliquer… sans le dupliquer). Aspect le plus troublant : il paraît clair que les mises à jour sont déclenchées manuellement par Google. Le moteur de recherche se base d’ailleurs sur les données fournies par les utilisateurs : 80% des sites pénalisés par Google Panda sont des sites qui avaient été signalés comme de moindre qualité par les utilisateurs. Une « search quality team » basée à Dublin propose même de recueillir les requêtes des mécontents de Google Panda… Ce qui ne les empêche pas de répéter à l’envi que les mises à jour se font sans intervention humaine.

La règle d’or pour faire du Social Media Optimization : la qualité des contenus. Sur les réseaux sociaux, seuls les bons contenus sont partagés, viralisés, et génèrent donc des liens.


Dominique Cardon : « la tension entre autorité et affinité est le cœur du débat ».

Le sociologique Dominique Cardon s’est ensuite appliqué à défendre le PageRank, « avec une naïveté revendiquée »… avant d’expliquer les avantages du EdgeRank. Ce sont là deux façons d’organiser les résultats de recherche :

  • le PageRank : Google classe les informations en fonction de « l’autorité » des sites Internet
  • le EdgeRank, que Facebook revendique « affinitaire » : l’information est organisée selon les préférences supposées de l’utilisateur.

Initialement, l’essence du PageRank en faisait un outil de classement à vocation démocratique, reposant sur le théorème du jury de Condorcet : « Condorcet reprenait l’argument de Jean-Jacques Rousseau dans le Contrat social, selon lequel l’opinion de la majorité est légitime car elle exprime la volonté publique ». Les internautes qui consultent des sites web effectuent « des micro-actions désordonnées et non coordonnées », et « élisent » par leur clic un contenu. L’agrégation statistique de ces micro-actions apporterait alors le résultat le plus pertinent. Du moins en principe… Car ce suffrage universel repose sur un mot d’ordre : les votants ne doivent pas échanger entre eux pour éviter les effets d’influence et pour que le vote soit le meilleur possible. Concrètement, le PageRank fonctionne… tant qu’on ne cherche pas à le faire fonctionner. Or, dans la réalité, chacun cherche à influencer ce classement. Matt Cuts, l’une des voix de Google, a beau répéter que les éditeurs ne doivent pas agir en fonction de l’algorithme du moteur de recherche, dans la pratique, chacun opère par stratégie vis-à-vis de ce « métacoordinateur ».
Par conséquent, le PageRank est devenu une classification autoritaire, effectuée par et entre pairs, c’est-à-dire les publiants traditionnels, historiques, qui ont élaboré des stratégies pour remplir l’intertextualité du web de backlinks qui leur confèrent un bon classement
. Le web n’est pas ce « tissu de petits producteurs de liens locaux » espéré, mais une hyper-organisation où le PageRank est très inégalement distribué. « L’effet Matthieu » accentue cette tendance : les premiers élus du PageRank sont ceux qui attirent de nouveaux liens. Sans compter ce que Dominique Cardon appelle les « attachements préférentiels » : les sites à PageRank élevé s’associent pour se renforcer mutuellement.
En résumé, ce travail des liens que représente l’expertise SEO a conduit à un PageRank méritocratique : le classement est pro
duit non pas par l’ensemble des internautes mais par une poignée d’entre eux : les « publiants », qui « classent le web des autres ».
Ce classement est par conséquent déconnecté de l’audience. Tout comme l’était la radio et la TV à leurs débuts : la métrique de qualité était fonction de la présence d’experts. Jusqu’à ce que des organismes comme Médiamétrie insufflent cette solution « plus démocratique » qu’est la mesure de l’audience. Le web, lui, du moins celui de Google, préfère toujours les pairs à l’audience.

Toutefois… nous assistons à une production d’autres formes de hiérarchisation : les plateformes de service qui proposent des métriques locales, fondées non pas sur l’autorité mais sur l’affinité : c’est le cas du EdgeRank de Facebook. Les réseaux sociaux, bien que décriés comme « égotiques » ou « outrageusement conversationnels », reposent néanmoins sur une dynamique nouvelle : la circulation des informations est organisée selon un immense jeu de réputation entre les individus qui publient des liens comme ils s’accoleraient une étiquette. Lorsque les documents sont retwittés, partagés, ils peuvent être considérés comme notés. Les internautes font circuler un lien en partie parce qu’ils font revenir vers eux, comme un badge, la réputation acquise auprès des autres du fait d’avoir signalé ce document.

A ceux qui s’inquiètent de cette décentralisation du classement de l’information, et qui craignent une information personnalisée, locale, communautaire, Dominique Cardon rétorque qu’appuyer sur un « bouton +1 » démocratise le web bien plus qu’il ne le dénature. En quoi les internautes qui n’ont pas de site web mais une simple page Facebook ne pourraient-ils pas voter et agir sur les métriques du classement du web pour participer à la construction de l’information ?


Stéphane Arnoult : « Comprendre ce qui fait qu’un contenu a une propension à être partagé est essentiel »

Faire coïncider la publication de nouveaux contenus sur son site et leur reprise sur les réseaux sociaux : c’est l’enjeu auquel sont confrontés les sites éditeurs. Car les médias sociaux apportent en moyenne  9% du trafic (et Facebook deux fois plus que ses homologues).
Un plan de pénétration globale des réseaux sociaux est nécessaire. Ceci dit, le plus important pour un site éditeur est de bien connaître ses lecteurs, leurs habitudes de positionnement face aux contenus, et leur capacité à les diffuser.
La différence quantitative de « share », « like » ou retweets entre deux contenus suggère de s’intéresser à leurs caractéristiques. Certains contenus sont ainsi « consommables » mais peu « partageables ». D’autres, à l’inverse, sont assimilables à des « badges » qu’épingleraient les internautes à leur profil : des infos brûlantes, des rumeurs comiques, ou bien des contenus culturels de différenciation forte, qui permettent une signalisation de soi, et qui sont facilement viralisés.

 

Simon Vissol : « Allez sur les blogs, les forums, pour créer, partager, participer ».

Les chiffres facilement disponibles sur le trafic sont souvent mal interprétés. Pour avoir une image nette du trafic, il est nécessaire de voir la quasi-intégralité du chemin qu’un internaute a emprunté avant d’arriver sur une page. Les annonceurs viennent parfois voir les agences de SEO en assurant que leur ROI sur les réseaux sociaux est dû au nom de leur marque. En réalité, il y a toute une « vie » avant un achat.
Par ailleurs, si la part de trafic générée par les réseaux est mince, on mesure encore mal les effets induits de la notoriété qu’ils engendrent sur les moteurs de recherche : mais on sait qu’ils sont importants. Les médias sociaux doivent être appréhendés comme des outils d’impulsion, des déclencheurs de liens. En SEO, le maître-mot est en effet celui de « lien » . Viraliser un contenu sur les réseaux sociaux ne produit pas un pic de trafic. En revanche, l’effet induit est primordial : c’est la multiplication de liens qui pointent vers un même contenu qui va le faire remonter dans les résultats.

Le Social Media Optimization est valable pour les infos éphémères, chaudes, « jetables après consommation ». Les contenus de « slow information », ne seront eux pas promus ou très peu par les réseaux sociaux, plus appropriés à une consommation d’informations rapide.

Quelques conseils prodigués par Simon Vissol en guise de conclusion :

  • A choisir entre l’intégration d’un bouton « j’aime » et d’un bouton « partager » sur une page web, mieux vaut privilégier le second, qui permettra d’afficher davantage d’infos sur le mur de l’internaute.
  • Signaler sa page Facebook sur son site permet des interactions, mais il faut éviter le « i-frame » qui n’est pas scrollé par les moteurs.
  • Accompagner chaque post sur Facebook d’une image ou d’une vidéo pour attirer le clic.
  • Pour publier une info, quelque soit le réseau social utilisé, attirez l’attention et appelez les réactions en posant une question ou en donnant une opinion.