Social Data : Où en est la méthodologie?

Ce qu’on retient des échanges :

  • La complémentarité entre l’analyse humaine et les données récoltées par les outils reste au coeur des méthodes de travail.
  • Les méthodologies sont multiples, et doivent être définies en fonction des objectifs de recherche et des corps de métiers qui sont mobilisés.
  • Les méthodologies doivent évoluer et être remises en question en permanence, en ayant recours à un dialogue entre des métiers et des compétences de plus en plus variés.

Pour en discuter, nous avons réuni Marguerite Leenhardt (CEO de XiKO), Ben Chartier (Associé chez D’CAP Research) et Christophe Prieur (Enseignant-Chercheur chez Telecom Paristech). Cette session de la commission Social Data était animée par Rémi Douine (Fondateur de The Metrics Factory) et Rozenn Nardin (Fondateur de Research&Web Conseil).

« La fin de la théorie » titrait de façon provocante le magazine Wired en 2008[1], en prédisant que l’essor du Big Data rendrait les méthodes d’étude scientifiques des données obsolètes. Dix ans plus tard, la prophétie ne s’est pas encore réalisée. Si l’étude de la social data s’impose dans des secteurs de plus en plus variés (commerce, marketing, publicité, journalisme, sciences, politique) ses différentes méthodes d’exploitation varient, ne s’imposent pas de façon exclusive, et mettent encore largement à contribution une intervention humaine.

La quantité de données à décrypter devient cependant tellement énorme que l’automatisation s’impose pour ceux qui veulent étudier la Social Data. Tracker, Radarly by Linkfluence… les outils mis à disposition du marché se multiplient, avec chacun leur spécificité, allant du social listening au data mining. « L’industrialisation est essentielle dans la méthode. Mais à partir du moment où on industrialise l’étude des données, on est obligé de déléguer une partie du process à des machines, ce qui implique des approximations à certains moments. C’est pour ça qu’il ne suffit pas d’avoir d’avoir des milliards de données, il faut de la finesse dans l’analyse et la connaissance, » expose Christophe Prieur (Telecom ParisTech).

Si les machines en question scrutent les bases de données avec des algorithmes, elles font remonter des éléments qui sont ensuite analysés par des humains. « Il faut absolument décorréler l’industrialisation de l’outil. L’outil est simplement un moteur. Si on ne sait pas conduire une voiture, le moteur ne sert à rien, » résume Marguerite Leenhardt (XiKO). Dès lors, la question de la méthodologie reste entière pour comprendre comment la Social Data est traitée et analysée, et semble autant s’apparenter à une problématique de lecture que de recherche.

« L’automatisation a sa limite car elle crée une sorte d’enfermement tautologique. L’un des paradigmes c’est pouvoir passer de la donnée à l’information. » Ben Chartier (D’cap Research)

L’utilisation des données allant de la stratégie marketing à la sociologie, en passant par l’étude d’opinion ou de satisfaction, il est difficile aujourd’hui de dégager une méthodologie unique et dominante. « En fonction des métiers à qui on va délivrer la connaissance issue de la donnée, on n’aura pas les mêmes problématiques, » explique Marguerite Leenhardt (XiKO). « Aujourd’hui, les méthodologies reposent sur un nombre d’acteurs de plus en plus important, » ajoute Hélène Girault, Directrice internationale des études chez Linkfluence. « Il faut mettre les profils techniques adaptés face à chaque marché pour trouver les moyens de généraliser les réponses techniques, et voir s’il est possible de les intégrer au sein d’une chaîne algorithmique industrialisable, » explique Marguerite Leenhardt (XiKO).

« Nous devons mettre en place des technologies pour connecter nos données face aux clients. Il faut penser industrialisation et robustesse de la chaîne de traitement. » Marguerite Leenhardt (XiKO)

Au-delà du développement des outils techniques, des enjeux humains de recrutement semblent donc être au cœur des préoccupations pour bien traiter et interpréter les données. « L’interprétation sera forcément différente en fonction de la ligne que vous définissez au départ : un responsable marketing, un data scientist, un développeur ou un responsable d’études qualitatives auront chacun une lecture différente de la donnée, » développe Marguerite Leenhardt (XiKO). « Ce qu’on recherche, c’est l’enrichissement de la donnée. On la capte, puis ensuite on affine notre analyse à l’aide d’algorithmes d’inférences linguistiques ou socio-démographiques par exemple. Ce que je constate, c’est que ce n’est pas une méthodologie figée : tout cela se fait au quotidien dans l’interaction entre les développeurs et les différents corps de métiers, » raconte Guillaume Brandel (Linkfluence).

DES MÉTHODOLOGIES HYBRIDES ET ÉVOLUTIVES

Avec des usages aussi divers, la tentation est grande pour les différents acteurs de développer leur propre méthodologie, afin de répondre le plus précisément à leurs besoins. « Il n’y a pas de méthode unique, pas de question unique, et donc pas la même façon d’obtenir des réponses. Chez nous, on ne distingue pas la réception de la donnée de son interprétation. Nous développons avant tout des méthodes d’analyse, » explique Ben Chartier (D’cap Research). « Si on pose une photographie de méthodologie, au moment où elle est imprimée elle est déjà dépassée, » poursuit Marguerite Leenhardt (XiKO). « Dans certains domaines de recherche, comme l’algorithmique distribuée, les méthodes de recherche académiques existent depuis très longtemps et n’ont rien à voir avec celles, plus récentes, issues du Big Data. Les résultats sont très différents, et chacun continue de travailler avec sa propre méthodologie, » ajoute Christophe Prieur (Telecom ParisTech).

« Il faut parvenir à apprendre aux opérationnels à faire de la recherche, et aux chercheurs à faire de l’opérationnel. » Christophe Prieur (Telecom ParisTech)

Face à des plateformes aux décisions parfois imprévisibles, le développement de telles méthodologies permettrait en théorie une plus grande autonomie et stabilité dans le travail. « Quand on développe une méthodologie de collecte et d’accès aux données, le premier levier est de s’affranchir d’une certaine dépendance aux grandes plateformes. C’est pour cela que nous employons autant d’ingénieurs, de chercheurs et de docteurs, afin de mettre en place un stock de technologies important, » analyse Marguerite Leenhardt (XiKO). Alors que les réseaux sociaux vont jusqu’à racheter les nouvelles plateformes d’accès aux données[2] et que les changements d’algorithmes ou d’accès aux API peuvent bouleverser des mois de travail en un temps très rapide[3], la stratégie de développement à adopter face aux grandes plateformes sociales n’est pas unanime. « Dans mon cas, je ne vois pas comment on peut s’en affranchir, » tranche Guillaume Brandel (Linkfluence). « On parle de développer des méthodologies, or ce que nous faisons depuis longtemps c’est renouveler un stock de méthodologies. Au final c’est un aspect de notre travail qui a une limitation venant des outils eux-mêmes. Quand on travaille sur cinq plateformes différentes, les repères sont directement fixés, » nuance Lucien de Brot, Head of Data Analysis chez Burson-Marsteller i&e.

Afin d’éviter d’être trop dépendants aux plateformes, certains chercheurs préfèrent même se concentrer sur l’analyse des liens d’interaction et de sociabilité. « C’est une façon de procéder très différente de l’analyse du contenu. Cela fait cinquante ans que les méthodes d’analyse de liens existent et sont sans cesse renouvelées. Par exemple, en étudiant les données de carte bancaire de plusieurs personnes, on peut voir qui paye au même endroit en même temps, et ensuite déterminer quelles sont les personnes qui déjeunent ensemble régulièrement. Et il y a plein d’autres façons beaucoup plus artisanales d’obtenir des informations sur les relations entre des individus, qu’on ait ou non des accès privilégiés à des données propriétaires. Bien sûr, le design et les API des plateformes peuvent beaucoup changer d’une année sur l’autre, mais globalement, si on se place dans le temps long, la science absorbe ces changements, » explique Christophe Prieur (Telecom ParisTech).

« Il ne s’agit pas de tout réinventer tous les jours, mais d’avoir un panel de méthodologies suffisamment large pour pouvoir s’adapter au jour le jour, » Marguerite Leenhardt (XiKO)

Les contraintes sont donc nombreuses, qu’elles soient technologiques, culturelles ou simplement économiques, ce qui pousse les différents acteurs à évoluer dans un cadre parfois restreint. « Tous les clients ont des exigences différentes. On va déterminer la meilleure méthode en fonction de ce qui nous est demandé à un moment précis. Cette rencontre des métiers et des demandes est tout à fait fondamentale, » analyse Nathalie Litvine, Customer Success Manager chez Linkfluence. « Les méthodologies dépendent aussi beaucoup des pays avec lesquels on travaille, » ajoute Hélène Girault (Linkfluence). Au-delà des questions de marché, de langage et de culture, les spécificités techniques d’un pays à l’autre sont un frein supplémentaire à la création d’une méthodologie globale et dominante. Par exemple, certains pays du golfe fournissent des accès beaucoup plus restreints aux données qu’en occident, ou encore la Chine utilise son propre système de firewall.

Concrètement, les fournisseurs d’outils vont devoir aller chercher des personnes maîtrisant la langue des pays qu’ils étudient, le recours à la traduction automatique demeurant encore trop imprécis pour fournir des résultats d’études réellement qualitatifs. « Une machine ne pourra jamais intégrer la dimension ethnographique. Il faut prendre en compte le sens du contexte culturel, voire microculturel et sociologique. C’est le genre de choses où l’humain restera toujours plus fort que la machine, » explique Marguerite Leenhardt (XiKO). « Sur un même sujet, on va parfois analyser plusieurs pays, et on fait toujours analyser les résultats par des gens de la culture d’origine du pays. Il y a un niveau de compréhension où cela devient décisif d’avoir cette connaissance intime de la culture, ce qui est difficilement captable et interprétable uniquement par de la donnée, » poursuit Ben Chartier (D’cap Research).

DES OBJECTIFS À DÉFINIR EN AMONT

Si l’hybridation des méthodes et des métiers semble être au cœur des préoccupations pour obtenir des résultats d’études significatifs de la Social Data, elle implique avant tout un véritable travail de réflexion sur le but à atteindre dans la recherche. « C’est l’objectif de recherche qui guide la méthode, » explique Andria Andriuzzi, Brand conversation designer et chercheur à l’IPAG Business School. « Pour certaines marques, on parle moins de communautés que de publics, et on peut se concentrer sur des corpus plus restreints. Nous avons par exemple analysé 156 fils d’actualité d’utilisateurs de réseaux sociaux pour une seule marque, à partir desquels on a observé cinq types d’interactions différentes avec elle. C’est un petit corpus, mais qui permet déjà de faire une analyse qualitative. Le problème c’est qu’ensuite il n’y avait aucune donnée sur les personnes qui observaient leur fil sans interagir avec la marque. Pour cela, nous sommes passés par des entretiens physiques très approfondis avec un corpus de douze personnes, » raconte-t-il.

Il semble donc que l’étude de la Social Data ne soit pas encore totalement aux mains des machines et que le travail d’analyse de l’homme ait encore de beaux jours devant lui. « Un outil ne s’auto suffit pas, au contraire il faut le guider. Il faut lui donner un certain cadre socioculturel et éthique, » analyse Marguerite Leenhardt (XiKO), rappelant que les questions d’éthique sur l’exploitation des données ne datent pas des récentes polémiques autour de Facebook, mais apparaissaient déjà il y a près de dix ans suite au référencement de montages photos racistes de Michelle Obama par Google Images[4]. « Il faut réinstaurer une conversation entre l’humain et l’outil. J’en appelle à ce genre de réconciliations méthodologiques. C’est la méthode précédant l’outillage qui est le véritable garde-fou, » conclut-elle.

« La définition du sujet est très importante. Avant même de lancer des algorithmes, c’est déjà une grande partie du travail de bien définir la question. » Ben Chartier (D’cap Research)

S’il paraît impossible de définir aujourd’hui une méthode clé parfaite pour analyser la Social Data, hybrider les méthodes et les métiers, tout en les faisant constamment évoluer semble être une approche efficace. « Puisqu’il y a toujours une part d’approximation dans le travail avec les machines, à un moment il faut remettre en question les résultats que l’on obtient. Ce qui est important, c’est d’avoir une méthodologie qui permet de découvrir des choses que l’on n’avait pas présumées à l’avance, » analyse Ben Chartier (D’cap Research). Dans ce contexte d’expérimentation, d’hybridation, d’évolution et d’adaptation permanente, les solutions tirées des résultats sont donc largement définies ad hoc et au cas par cas.

Par Brice Andlauer

[1] https://www.wired.com/2008/06/pb-theory/

[2] https://www.journaldunet.com/solutions/analytics/analyse-des-tweets-twitter-rachete-son-partenaire-gnip-0414.shtml

[3] https://techcrunch.com/2018/04/02/instagram-api-limit/

[4] https://www.theguardian.com/technology/2009/nov/25/google-obama-offensive-racist

 

Une session organisée par le

Logo-smc-1

Retrouvez également nos articles sur le blog du SMC sur Zdnet :

ZDNet-partenriat-SMC