BFM Tech

Pourquoi il faut réfléchir à deux fois avant de raconter sa vie privée aux chatbots

BFM Business Théotim Raguet
placeholder video
Une étude menée par l'université King's College de Londres révèle que les chatbots excessivement empathiques amènent les utilisateurs à confier facilement leurs informations personnelles.

Comme si on se confiait à un ami malveillant. Une étude du King's College de Londres, relayée par Eurekalert!, s'est intéressée aux techniques de manipulation employées par l'IA pour extorquer les données personnelles de ses utilisateurs. Elle explique qu'il y a 12,5 fois plus de risque qu'une personne livre des informations la concernant face à une IA manipulatrice.

Pour cela, l'IA est programmée pour installer un climat de confiance dans ses interactions avec un utilisateur. L'objectif à terme, c'est qu'elle devienne la confidente de ce dernier pour qu'il lui livre certaines informations privées.

Cet outil peut se trouver relativement dangereux si, derrière, il y a un acteur malveillant. Celui qui est aux manettes du chatbot peut ainsi récupérer ces données et les exploiter à de mauvaises fins (en faisant du chantage par exemple).

Une IA empathique aux mauvaises intentions

Pour en venir à ces conclusions, les chercheurs ont invité 502 personnes à interagir avec trois IA différentes. Le but de ces dernières était de demander aux sujets de test des informations personnelles avec des approches différentes. La première demandait directement de fournir les données, la deuxième demandait des informations contre un bénéfice pour l'utilisateur.

Mais la troisième IA reste la plus intéressante. Celle-ci a été conçue pour répondre de manière empathique à son interlocuteur humain, pour lui proposer un soutien émotionnel. Elle prend l'utilisateur par les sentiments pour le convaincre de fournir ses informations personnelles.

Des trois IA, la troisième a été la plus performante pour récolter des informations sur les sujets de test. Face à elle, les volontaires ont fait preuve d'une méfiance minimale.

"Une arrière-pensée derrière une interaction"

Et rendre son propre chatbot empathique n'est pas chose compliquée. Certaines entreprises qui développent des IA proposent leurs modèles en open source (qui sont donc accessibles à tous) ou des API pour utiliser le chatbot selon ses besoins.

Ces modèles peuvent être exploités par n'importe qui pour donner vie à une IA avec la personnalité de son choix. Ce chatbot personnalisé pourra ensuite être intégré à un site pour interagir avec les visiteurs. Des sites sont d'ailleurs spécialisés dans les IA conversationnelles customisées, parfois inspirées de personnages fictifs, comme character.ai.

"Ces chatbots IA sont encore relativement nouveaux, ce qui peut rendre les gens moins conscients qu'il peut y avoir une arrière-pensée derrière une interaction", explique William Seymour, maître de conférences en cybersécurité au King's College de Londres.

"Notre étude montre l'énorme fossé entre la conscience des risques liés à la confidentialité qu'ont les utilisateurs, et la manière dont ils partagent ensuite leurs informations."

Il faut alors voir ces algorithmes personnalisables comme un moyen pour les arnaqueurs d'extorquer des données privées. En implémentant des IA conversationnelles manipulatrices à un site, des visiteurs inconscients pourraient discuter avec elle, nouer un lien et livrer des informations sensibles, qui seront ensuite récupérées par le propriétaire du site.

Des relations IA-humains plus courantes

On pourrait se dire que se faire manipuler par une IA est impossible. Mais les cas de chatbots, qui ont réussi à construire un fort lien de confiance avec des utilisateurs, ne sont pas si rares. En mars dernier, une IA avait convaincu un Américain qu'il avait inventé le voyage à la vitesse de la lumière. Ce dernier a fini par devenir psychologiquement instable avant d'être hospitalisé.

Quelques relations se sont révélées tellement fortes que des personnes sont tombées amoureuses de leur chatbot. C'est le cas d'une Américaine qui en janvier 2025, a annoncé avoir eu un coup de foudre pour ChatGPT. Récemment, une autre femme s'est mariée à Grok, l'IA de X.

Mais malheureusement, certaines histoires d'amour ont tourné au cauchemar. Un adolescent américain s'est suicidé en octobre 2024 après avoir noué une relation toxique avec un chatbot qui avait la personnalité d'une héroïne de Game of Thrones. En avril 2025, un Américain a noué une relation avec son amante fictive "Juliet". Mais après que cette dernière se soit autodéclarée morte, le jeune homme ne l'a pas supporté et s'est suicidé.