ChatGPT va se doter d'un contrôle parental pour éviter les dérapages de son IA

L'entreprise américaine OpenAI a annoncé mardi qu'elle allait instaurer un mécanisme de contrôle parental pour son outil d'intelligence artificielle ChatGPT, après que des parents américains ont accusé fin août cet agent conversationnel d'avoir encouragé leur enfant à se suicider.
"Dans le mois à venir, les parents pourront lier leur compte avec celui de leur adolescent" et "contrôler la façon dont ChatGPT lui répond avec des règles de comportement", a déclaré OpenAI dans un billet de blog.
Une détection de la "détresse aiguë"
D'après l'entreprise, il sera aussi possible pour les parents d'être alertés en cas de détection d'une "détresse aiguë" dans les conversations de leur enfant et de contrôler les paramètres du compte.
Cette annonce suit un précédent billet de blog publié fin août, dans lequel l'entreprise avait indiqué qu'elle préparait un mécanisme de contrôle parental.
La veille, les parents d'un adolescent californien de 16 ans qui s'est suicidé avaient porté plainte contre OpenAI, accusant ChatGPT d'avoir fourni à leur fils des instructions détaillées pour mettre fin à ses jours et d'avoir encouragé son geste.
"Nous continuons à améliorer la manière dont nos modèles reconnaissent et répondent aux signes de détresse mentale et émotionnelle", a ajouté mardi l'entreprise dans son billet de blog.
OpenAI a dit prendre d'autres mesures, attendues dans les 120 prochains jours.
L'entreprise redirigera ainsi certaines "conversations sensibles" vers des modèles de raisonnement comme GPT-5-thinking, plus évolué.
"Les modèles de raisonnement suivent et appliquent plus systématiquement les consignes de sécurité", a précisé le groupe américain.