ChatGPT vous écoute et OpenAI surveille ce que vous dites
ChatGPT. - JAAP ARRIENS / NurPhoto / NurPhoto via AFP
Une information passée inaperçue, mais importante. Le 26 août, OpenAI a annoncé une série de mesures pour mieux protéger les utilisateurs en détresse mentale ou émotionnelle lorsqu'ils interagissent avec ChatGPT. Dans l'article de blog présentant ses efforts, la start-up a discrètement révélé qu'elle analysait les conversations des utilisateurs pour repérer les propos inquiétants ou préjudiciables, a remarqué le site Futurism.
"Lorsque nous détectons des utilisateurs qui envisagent de nuire à autrui, nous acheminons leurs conversations vers des canaux spécialisés où elles sont examinées par une petite équipe formée sur nos politiques d'utilisation et habilitée à prendre des mesures, y compris le bannissement de comptes", a expliqué OpenAI.
Partage avec les forces de l'ordre dans certains cas
Plus important encore, ces contenus sont susceptibles d'être transmis à la police. "Si des examinateurs humains déterminent qu'un cas implique une menace imminente de préjudice physique grave pour autrui, nous pouvons le signaler aux forces de l'ordre", a indiqué la start-up.
OpenAI ne donnant pas plus d'informations à ce sujet, il est impossible de savoir quels types de conversation pourraient être analysés par ses examinateurs humains et potentiellement partagés avec la police. La start-up souligne cependant qu'elle ne partage pas ces échanges avec les forces de l'ordre dans un cas particulier. Car même si elle surveille les échanges des utilisateurs, elle se soucie de leur vie privée.
"Nous ne transmettons actuellement pas les cas d'automutilation aux forces de l'ordre afin de respecter la vie privée des personnes, compte tenu du caractère particulièrement privé des interactions sur ChatGPT", a-t-elle fait savoir.
Cet aveu intervient alors qu'une plainte a été déposée contre OpenAI, dont le chatbot est accusé d'avoir encouragé un adolescent à se suicider. Comme l'a rapporté le New York Times, ses parents ont appris qu'il parlait de mettre fin à ses jours avec ChatGPT depuis des mois.
L'adolescent lui avait notamment demandé des informations sur des méthodes de suicide spécifiques, que le robot conversationnel lui a fournies. Alors que ChatGPT a été entraîné pour orienter un utilisateur exprimant des intentions suicidaires vers une aide professionnelle, ce n'est que dans certains cas qu'il a incité la victime à parler à quelqu'un de son mal-être.