Faux avis : l'IA brouille les cartes

Faux avis : l'IA brouille les cartes Faciles à générer et pas forcément évidents à détecter, ils donnent du fil à retordre aux grandes plateformes.

Tripadvisor reconnaissait récemment que la modération d'avis par l'IA est un challenge pour elle. "Comme pour toute nouvelle technologie, les avantages de l'IA générative s'accompagnent également de défis, et nous nous attendons à voir des entreprises et des particuliers tenter d'utiliser des outils comme ChatGPT pour manipuler le contenu sur Tripadvisor."

La société américaine a récemment supprimé plus de 20 000 avis sur lesquels pesaient de forts soupçons d'avoir été créés par l'IA. Et cela pour plus de 15 000 établissements répartis dans 159 pays. Un grand nombre de ces avis provenaient d'Inde, de Russie, des Etats-Unis, de la Turquie, de l'Italie et du Vietnam. Sollicitée par nos soins pour en savoir plus sur son équipe de modération, l'entreprise américaine n'a pas donné de précision.

Cet exemple illustre la menace que représentent les faux avis générés par l'IA, surtout pour ce style de plateformes où les avis sont très importants. Il suffit d'aller sur ChatGPT pour s'en convaincre. Avec l'IA générative, finies les fautes d'orthographes ou le manque d'inspiration.

Lors d'un de nos tests, nous avons par exemple demandé au chatbot conversationnel de rédiger un faux avis pour une entreprise locale. Celui-ci, sans qu'on lui demande, en plus de la réponse, affiche 5 étoiles, caractérisant les notations sur le moteur de recherche américain. Si ChatGPT fait preuve d'un langage assez familier au début du texte, une partie importante du propos semble écrite par un vrai client.

© JDN

Notons que l'avis mis en ligne n'a pas été retiré par la plateforme. Nous l'avons supprimé de nous même au bout de quelque temps.

Humains, IA et insights

Pour modérer les avis, la firme de Mountain View affirme s'appuyer sur 20 000 évaluateurs, formés par des experts. Elle se sert aussi de technologies basées sur l'IA. "Nos technologies d'application utilisent des algorithmes d'apprentissage automatique pour aider à protéger nos marchands et nos utilisateurs en assurant la sécurité de nos plateformes d'achat. Les cas plus complexes, nuancés ou graves sont examinés et évalués par nos experts spécialement formés qui effectuent des évaluations de contenu qui pourraient être difficiles à effectuer pour les algorithmes seuls, par exemple, car une compréhension du contexte du contenu est requise."

Est-ce suffisant ? "Google a depuis longtemps des difficultés à reconnaître les faux avis et cela s'appliquera également aux faux générés par l'IA", répond Mike Blumenthal, cofondateur de Near Media. "Le moteur de recherche américain tâtonne un peu, et tente d'améliorer continuellement son système de détection", avoue David Groult, head of SEO chez Noiise.

Notons qu'au niveau technologique, la difficulté pour repérer un avis généré par l'IA et un simple texte généré par l'IA serait d'ailleurs la même, selon Eric Bogard, vice-président marketing de la société Copyleaks, un outil de détection de ce genre de contenu. "Quel que soit le contenu évalué, qu'il s'agisse d'une critique, d'un essai, d'une description de produit, ou encore d'un discours, nous le comparons à l'énorme volume d'écrits analysés. Ces derniers  proviennent d'utilisateurs sur lesquels nous nous appuyons pour déterminer s'il s'agit de la manière dont un humain écrit, et donc très probablement d'un texte humain authentique, ou non, et donc très probablement d'un texte généré par une IA."

Pour lutter contre ces faux avis, Google ne s'arrête pas au contrôle.  Par exemple, dans ses directives sur Merchant Center, il explique ne pas autoriser "les avis générés principalement par un programme automatisé ou une application d'intelligence artificielle." Il recommande aux sociétés ayant identifié du contenu de ce type, de "le marquer comme spam dans [leur] flux à l'aide de l'attribut <is_spam>."

 "Cet attribut is_spam est à l'image de ce qui avait été fait il y a quelques années avec l'attribut "rel=sponsored" pour identifier les liens achetés", analyse David Groult. "Bien que relativement peu utilisé, cet attribut a permis à Google de collecter des insights pour affiner ses systèmes de détection." Mais détecter le vrai du faux pour les entreprises demeure difficile, note Romain Crema, PDG de Modern Selling. "Les avancées constantes en IA rendent le contenu généré par ces outils de plus en plus indiscernable de celui créé par les humains." "Si une société comme Google éprouve autant de difficultés à repérer les faux avis générés par l'IA, il me semble assez improbable que cette détection 100% fiable soit possible pour une autre entreprise", développe David Groult.

Google a aussi pu récolter des retours sur les signalements des annonceurs, frustrés d'avoir perdu des avis légitimes il y a quelques mois, suite à une vaste vague de suppressions d'avis, selon David Groult. "Ces signalements lui ont sans doute permis de collecter encore plus de datas et d'affiner ses systèmes."

Dans ce jeu du chat et de la souris, le firme de Mountain View devrait également harmoniser ses différentes politiques de modération pour être plus efficace, avance Mike Blumenthal. "Annonces locales, annonces de services locaux, centre de produits, applications, pour une raison quelconque, Google traite chacun de ces domaines avec des processus séparés et distincts." Par exemple, les LSA, les annonces locales de Google, possèdent des avis "certifiés" qui ne le sont pas réellement. Il suffit d'appeler "l'entreprise" en question pour prendre un faux rendez-vous. Et une fois celui-ci commencé, laisser un avis via le lien d'avis. "Il s'agit d'un bon exemple de cas où aucun processus n'est en place, alors que le problème ne cesse de s'aggraver. Google aurait pu utiliser les processus de modération IA et de curation humaine de Local Reviews, mais il ne l'a pas fait. Pourtant, cela peut avoir un certain impact lorsque cela est réalisé." Romain Crema plaide de son côté pour l'adoption d'avis vidéos. "Plus difficiles à falsifier, ils offrent une dimension d'authenticité et de personnalisation que les technologies d'IA actuelles ne peuvent pas facilement reproduire." 

Pendant ce temps, David Groult rappelle que "générés ou non par l'IA, les faux avis sont une plaie pour le web. Leur publication est punie par la loi. Ceux qui s'y risquent encourent deux ans d'emprisonnement et 300 000 euros d'amende." Ce qui n'empêche pas des entreprises, parfois bien référencées par Google, de s'engouffrer dans la brèche. L'une d'elle "dispose d'une équipe de professionnels possédant une expertise dans la promotion commerciale et l'augmentation du nombre d'avis 5 étoiles." Une autre vend un "plugin Wordpress révolutionnaire qui exploite la puissance de l'intelligence artificielle avancée". Pour 35 dollars, elle propose de créer "5 avis de produits par mois générés par l'IA sur 3 sites". Avec "la rédaction, l'optimisation et la publication automatisées des avis". Et un "contenu lisible par l'homme réussissant les contrôles de plagiat."