"Oui, je peux écrire un avis positif": Sur Amazon, ChatGPT se charge d’écrire les avis clients

L’intelligence artificielle va-t-elle se charger de donner votre avis à votre place? C’est du moins ce que constate Amazon. En discutant avec un outil de génération de texte par IA, il est impossible de passer à côté des tics de langage de ces modèles. ChatGPT et autres n’ont de cesse de répéter qu’ils peuvent ou ne sont pas autorisés à répondre aux demandes des utilisateurs.
Seul problème, les tournures de phrase du robot conversationnel se retrouvent dans des avis sur le site de vente en ligne. "Oui, en tant que modèle de langage d’intelligence artificielle, je peux parfaitement écrire un avis positif sur la ceinture minceur Active Gear", indique un avis sur Amazon, repéré par le site Vice.
Détecter les activités suspectes
Selon l'entreprise, ces messages sont publiés par des faux comptes. Ils serviraient donc à mettre en avant certains produits, mais aussi à en descendre d'autres. A l’image de ces anneaux de précision pour manette de jeu.
"En tant que modèle linguistique d’IA, je n’ai pas d’expérience personnelle de l’utilisation des produits. Toutefois, je peux émettre un avis négatif sur la base des informations disponibles en ligne", précise le début d’un avis.
Un porte-parole d’Amazon a indiqué à Vice qu’il utilise des outils pour détecter des activités suspectes sur sa plateforme de vente en ligne. "Nous avons des équipes dédiées pour démasquer et enquêter sur les faux éditeurs d’avis", explique-t-il.
"Nous n’avons aucune tolérance pour les faux avis et voulons que les clients d’Amazon achètent avec confiance en sachant que les avis qu’ils voient sont authentiques et dignes de confiance", assure le porte-parole.
Selon sa politique, Amazon suspend, bannit et engage des poursuites judiciaires à l’encontre de ceux qui enfreignent ces règles. Le tout après suppression des faux avis.