SMC Cycle « Sciences et réseaux sociaux », Session #3 – L’IA va-t-elle envahir les réseaux sociaux ?

Ce que l’on retient des échanges :

 

  • L’intelligence artificielle, et en particulier les technologies de NLP (traitement automatique du langage naturel, natural language processing), se nourrissent des données des réseaux sociaux.
  • Un nouveau défi pour les IA dans la communication en ligne réside dans la sécurisation des campagnes digitales : le brand safety
  • La fiabilité des algorithmes est au cœur des préoccupations. Une intervention humaine est encore très régulièrement nécessaire et les IA unsupervised, totalement autonomes sans intervention humaine, sont donc encore assez rares.

 

Avec la lutte contre les fake news, les injonctions pour les marques à avoir une réactivité permanente, et les possibilités de connaissance de leur audience de plus en plus pointues, les réseaux sociaux deviennent un terrain de jeu parfois vertigineux pour les marques et les médias. Dans ce cadre, l’intelligence artificielle fournit la promesse d’une capacité de tri inaccessible aux être humains. Des chatbots aux publicités ciblées en passant par le travail de veille, les IA semblent déjà avoir envahi les réseaux sociaux, mais leur efficacité et leurs limites sont encore difficiles à mesurer.

 

Avec énormément de données textuelles à leur disposition, les algorithmes des IA se consacrent en grande partie à l’analyse du langage. « La data et les réseaux sociaux sont deux sujets qui se nourrissent les uns les autres. La data vient nourrir les algorithmes, et d’un autre côté les algorithmes vont nourrir les réseaux sociaux pour de la modération et de la publication », expose Julien Breitfeld, Creative Technologist chez Fabernovel et animateur de la table-ronde.

 

« L’intelligence artificielle est un mot à la mode qui recouvre en réalité de nombreux domaines assez différents. Certaines entreprises savent exactement ce qu’elles veulent en faire, quand d’autres sont encore en mode prospective et cherchent à mieux définir leur problématique. » Tristan Cazenave, Professeur à l’Université Paris-Dauphine

 

Dans ce mode de fonctionnement, les robots conversationnels (chatbots), sont de plus en plus plébiscités. Ils permettent aussi bien d’alléger des tâches répétitives comme le service après-vente, tout en récoltant de la donnée permettant d’alimenter les algorithmes pour les rendre encore plus performants. Les technologies de NLP (traitement automatique du langage naturel, natural language processing), optimisées grâce au Machine Learning permettent ainsi de rendre ces robots de plus en plus performants et indépendants. « Au final, les IA se spécialisent dans la gestion de données. Mais derrière le Machine Learning, on apprend aux robots à prendre une décision », résume Tristan Cazenave (Université Paris-Dauphine), qui est responsable aujourd’hui d’un nouveau master « IA Systèmes Données » (IASD), qui suscite l’intérêt de nombreuses entreprises. Criteo et Safran notamment, ont ainsi noué des partenariats avec l’institution.

 

Difficile de faire des généralités, tant les champs d’application de l’IA sont variés et les besoins des entreprises divers. « Le questionnement d’un directeur de musée est très différent de celui du dirigeant d’une banque », explique Valentin Schmite, co-fondateur de Ask Mona, dont l’entreprise est aujourd’hui spécialisée dans l’IA pour les institutions culturelles. « Aujourd’hui, nous avons développé un millier de thématiques avec des centaines de formulations différentes. Ça nous permet d’avoir une masse critique de données », raconte-t-il, en précisant que l’IA permet donc aussi de partager une grande partie des données récoltées directement avec les musées.

 

COLLECTE DE DONNÉES ET CONNAISSANCE DU PUBLIC

 

Si intelligence artificielle et collecte de données vont de pair sur les réseaux sociaux, le récent règlement général sur la protection des données (RGPD) ne permet pas aux marques et aux médias de travailler sur des données personnelles. « Nos données sont très qualifiées, mais toujours anonymisées. Nous ne travaillons que sur de la donnée textuelle, nous n’utilisons même pas la date et l’heure des conversations, le RGPD ne nous le permet pas », raconte Valentin Schmite (Ask Mona), tout en précisant que les réglementations en vigueur rendent délicates des développements d’IA sur les réseaux sociaux chinois.

 

Dans le cadre d’une visite de musée par exemple, l’IA développée pour un chatbot permet à un visiteur de préparer sa visite, puis de poser des questions au cours de la visite (en prenant en photo un tableau reconnu visuellement par l’IA par exemple) et enfin de répondre à une enquête de satisfaction sur la visite. « Nous avons un taux d’ouverture de 90% et un taux d’engagement de 60%, ce qui est énorme quand on sait que les newsletters ont généralement un taux d’ouverture moyen de 30% », se félicite Valentin Schmite (Ask Mona). « Grâce à toutes ces données, une fois qu’il y a une récurrence et un rythme assez élevé, cela permet aux directions de musées de repenser leurs visites », poursuit-il. Avec la récente ouverture des API de Whatsapp[2], la conception de chatbots se retrouve de plus en plus facilitée. « C’est encore limité sur Whatsapp, notamment parce qu’il n’y a pas encore de bouton. Mais aujourd’hui tout cela se fluidifie. L’objectif de Facebook (qui possède Messenger, Whatsapp et Instagram) est d’avoir les conversations étalées sur ces trois réseaux à la fois, avec un seul parcours de conversation », décrypte Valentin Schmite (Ask Mona).

 

« Le public des utilisateurs de chatbots, ce n’est pas uniquement des jeunes et des millenials comme on pourrait le penser. On se rend compte qu’il y a une vraie scission dans les groupes d’utilisateurs que nous créons. 20% d’entre eux sont des millenials, et 20% sont des plus de 45 ans. » Valentin Schmite (Ask Mona)

 

Les IA permettent ainsi aux marques et aux médias d’avoir une connaissance plus pointue et plus fine de leur audience. Avec les données conversationnelles, une entreprise comme Ask Mona parvient par exemple à établir des dizaines de catégories d’utilisateurs. «  On établit des catégories en croisant le type de langage utilisé et la façon dont l’utilisateur se comporte dans le chatbot », explique Valentin Schmite (Ask Mona). « L’objectif, c’est aussi d’aller toucher des gens qui sont loin des musées, par des techniques de communication et de ciblage », ajoute-t-il.

 

LES IA POUR LUTTER CONTRE LES FAKE NEWS ?

 

Dans des réseaux sociaux de plus en plus dominés par des luttes d’influence sur fonds de diffusion de fake news, l’IA apparaît pour certains comme une solution relative à la lisibilité des réseaux sociaux. C’est par exemple le cas de l’outil TrustedOut, qui propose un tri a priori des réseaux sociaux en proposant à l’utilisateur de définir lui-même ses tiers de confiance. « À la création du web, les moteurs de recherche étaient des humains qui triaient les pages web existantes. Aujourd’hui, l’IA permet de reproduire le schéma cognitif du classement, de reproduire la perception de ce qui est tangible ou ne l’est pas. Ça ouvre des portes absolument phénoménales », s’enthousiasme Freddy Mini, co-fondateur de TrustedOut, après avoir été le CEO de Netvibes. Ainsi, l’entreprise écoute 72 000 médias français et américains, en attendant de pouvoir se développer sur d’autres langages. En vendant ce service à une marque, TrustedOut propose ainsi d’identifier la perception de tel média ou tel message dans un pays ou auprès d’une population donnée, et d’affiner ainsi a priori de façon très précise une campagne média. «C’est fabuleux de concentrer le savoir et la valeur sur cet algorithme-là et pas sur comment publier quoi sur quelle plateforme», estime Freddy Mini (TrustedOut).

 

Sauf que les IA ne sont pas infaillibles, en témoigne par exemple les récentes mésaventures de Disney et Nestlé ayant découvert que leurs publicités en ligne étaient associées à des contenus pédopornographiques[3]. Un nouveau défi pour les IA dans la communication en ligne réside donc dans la sécurisation des campagnes digitales : le brand safety. « Le terme de brand safety variation est apparu en 2017. Et puis en 2018, ces variations ont augmenté de 25%. Le contenu publicitaire peut se retrouver dans un environnement qui est soit compatible avec l’image de marque, soit incompatible, soit carrément toxique. C’est un nouveau défi à relever avec les algorithmes », analyse Freddy Mini (TrustedOut).

 

« Le début de l’IA sur les réseaux sociaux, c’est lorsque Facebook a renoncé à afficher la totalité du fil d’actualité au nom de l’expérience utilisateur. Aujourd’hui, ces mécaniques vont tellement loin qu’on en est à se demander si ce n’est pas ce qui a favorisé l’élection de Donald Trump. » Aurélien Blaha, CMO chez Digimind

 

La fiabilité des algorithmes est au cœur des préoccupations. Car en l’état, une intervention humaine est encore très régulièrement nécessaire pour éviter les dérives, en témoigne une étude de la revue Science montrant que les IA reproduisaient parfois des biais sexistes et racistes[4]. « Les représentations des IA sont toujours biaisées par rapport aux données qui leur sont fournies et aux buts qu’on leur donne », explique Tristan Cazenave (Université Paris-Dauphine). Les IA unsupervised, totalement autonomes sans intervention humaine, sont donc encore assez rares et doivent être surveillées de près. Un constat qui a par exemple permis à Luc Julia, vice-président innovation de Samsung, d’affirmer que «l’intelligence artificielle n’existe pas[5]».

 

LE TAUX DE CONFIANCE AU CŒUR DES ENJEUX

 

Une autre difficulté pour les IA devant travailler avec les NLP est de s’adapter aux évolutions du langage. «Les grammaires sont tout le temps évolutives, ce sont des règles non écrites de tribus. Le défi pour la machine, c’est de comprendre l’intention, même quand il manque un mot par exemple», explique Valentin Schmite (Ask Mona), tout en racontant que ses équipes n’hésitent pas à s’appuyer sur des jeunes pour améliorer l’algorithme dans sa connaissance du langage des adolescents. «Il y a toujours une double lecture entre l’intention globale et la lecture mot par mot, ce qui nous permet de garder le même taux de confiance », développe-t-il.

 

Un autre défi important pour les IA est de comprendre l’ironie. En effet, une analyse binaire mot par mot d’un ordinateur ne permet pas d’intégrer le second degré. Pour résoudre cet écueil, les algorithmes vont donc devoir intégrer des paramètres plus larges. «En fait on demande à la machine de faire la même chose qu’un être humain lorsqu’il identifie l’ironie, c’est-à-dire d’analyser le message en fonction du contexte. Dans nos chatbots, on demande donc à la machine d’analyser une phrase de félicitation en fonction des dix messages précédents de la conversation. Si la conversation était globalement négative, elle pourra ainsi saisir l’ironie», explique Valentin Schmite (Ask Mona).

 

« À l’avenir, on va voir de plus en plus d’IA échanger et s’affronter. Les batailles bots venant contrer d’autres bots existants apparaissent déjà, cela devrait se développer », Aurélien Blaha

 

Si la fiabilité et l’indépendance totale des IA ne semble pas réaliste dans un futur proche, elle ne serait peut-être pas non plus souhaitable. « Tout dépend de comment on définit le problème, de comment on pose la question à la machine. Sur certains jeux puisque tout l’univers et le contexte est défini et paramétré, on peut atteindre 100% de résultats positifs. En revanche, sur de la relation client je ne pense pas qu’on y arrivera », explique Tristan Cazenave (Université Paris-Dauphine). « Je pense qu’on ne sera jamais à 100%. Et ce n’est pas grave, ce n’est même pas souhaitable, tant que les taux de satisfaction augmentent. Plus on a de données, plus les algorithmes sont performants. Toutes ces conversations nous poussent à comprendre encore mieux les IA », ajoute Valentin Schmite (Ask Mona). «Ce qui est vrai, c’est que les zones d’erreurs diminuent considérablement. Même pour l’analyse d’émotions, on avait une catégorie ‘on ne sait pas’, et on se rend compte que cette catégorie est de plus en plus faible. On attend des ordinateurs qu’ils résolvent 100% des problèmes parce qu’on a été habitués à ce qu’ils ne se trompent jamais sur des problèmes simples. Mais si par exemple, les machines ont 10% d’erreurs sur les diagnostics médicaux, c’est toujours mieux que 30% d’erreurs chez les humains», analyse Aurélien Blaha (Digimind). Il est sans doute temps de repenser notre relation aux IA…

 

Brice ANDLAUER

 

[1] https://www.usinenouvelle.com/editorial/les-secrets-de-la-messagerie-chinoise-wechat-decryptes-par-fabernovel.N799920

[2] https://www.forbes.com/sites/ilkerkoksal/2019/01/10/how-the-whatsapp-business-api-is-making-brands-speak-up/#2de983bb257d

[3] https://www.theverge.com/2019/2/20/18233726/disney-ads-youtube-child-exploitation-scandal-adpocalypse

[4] https://www.lemonde.fr/pixels/article/2017/04/15/quand-l-intelligence-artificielle-reproduit-le-sexisme-et-le-racisme-des-humains_5111646_4408996.html

[5] http://www.strategies.fr/actualites/marques/4027180W/-l-intelligence-artificielle-n-existe-pas-luc-julia.html