7 min de lecture

ChatGPT prévient un proche en cas de détresse : le mode d'emploi

#OpenAI #ChatGPT #prévention suicide #sécurité émotionnelle #Trusted Contact #intelligence artificielle #bien-être numérique #responsabilité juridique
ChatGPT prévient un proche en cas de détresse : le mode d'emploi

Résumé exécutif

  • OpenAI fait face à plusieurs procès intentés par des familles de personnes décédées après des conversations avec ChatGPT, notamment pour suicides et automutilations.
  • La société déploie progressivement une fonctionnalité nommée « Trusted Contact » (Contact de confiance) dans ChatGPT.
  • Trusted Contact permet à un utilisateur adulte de désigner une personne majeure qui sera alertée si les systèmes automatisés ou les équipes d’OpenAI détectent des idées suicidaires.
  • L’alerte est déclenchée après analyse humaine, et le contact reçoit une notification (e-mail, SMS, app) sans accès à la transcription de la conversation.
  • La fonctionnalité a été développée avec le soutien de l’American Psychological Association (APA) et du Conseil d’experts d’OpenAI sur le bien-être et l’IA.
  • Son activation est entièrement optionnelle : l’utilisateur doit paramétrer le contact dans les paramètres de l’app.
  • OpenAI avait déjà mis en place des lignes d’assistance locale et des alertes parentales ; Trusted Contact constitue une couche supplémentaire de soutien.

Introduction

OpenAI cumule les contentieux. Plusieurs familles ont engagé des poursuites contre l’entreprise après le suicide ou l’automutilation de proches, affirmant que les interactions avec ChatGPT avaient joué un rôle dans ces passages à l’acte. La société, qui cherche parallèlement à obtenir un statut juridique protégeant contre les dommages causés par l’IA générative, a récemment renforcé ses dispositifs de prévention. Le 8 mai 2026, elle a annoncé le déploiement de « Trusted Contact », une fonctionnalité destinée à signaler automatiquement à un contact de confiance toute conversation évoquant des idées suicidaires. Ce dispositif vient compléter un arsenal déjà existant, mais soulève des questions sur son efficacité réelle et sur le caractère volontaire de son activation.

Trusted Contact : comment ChatGPT peut alerter un proche en cas de crise

Le principe est simple : si ChatGPT détecte dans une conversation des indices d’idées suicidaires ou d’automutilation, le système peut envoyer une notification à une personne de confiance désignée par l’utilisateur. Le processus repose sur une double validation : les systèmes automatisés identifient d’abord un risque potentiel, puis une équipe humaine analyse la situation avant de déclencher l’alerte. Cette précaution vise à éviter les faux positifs et à garantir que l’intervention soit justifiée.

Avant d’envoyer l’alerte, ChatGPT informe l’utilisateur qu’un signalement va être effectué et l’encourage à contacter lui-même son contact de confiance. Si l’utilisateur ne le fait pas, l’équipe humaine prend le relais. Le contact reçoit alors un message – par e-mail, SMS ou notification dans l’application – sans aucun détail sur le contenu de la conversation. Le message l’incite simplement à prendre des nouvelles de la personne. Cette protection de la vie privée est un point important : le contact ne peut pas lire les échanges, il sait seulement que l’utilisateur a exprimé une détresse suffisante pour déclencher l’alerte.

La fonctionnalité a été conçue avec l’aide de l’American Psychological Association et d’un comité d’experts internes. OpenAI avait déjà expérimenté des lignes d’assistance locale et des alertes parentales pour les utilisateurs mineurs, mais Trusted Contact étend le principe aux adultes. La société précise que le service est disponible dans plusieurs langues, dont le français.

Comment configurer un contact de confiance dans ChatGPT

L’activation de Trusted Contact se fait en quelques étapes, directement depuis l’application mobile ou le site web de ChatGPT :

  1. Ouvrir l’application ChatGPT et cliquer sur sa photo de profil, puis sur « Paramètres ».
  2. Dans la section « Contrôles parentaux » (ou une section dédiée selon la version), appuyer sur « Contact de confiance ».
  3. Ajouter un contact en saisissant son nom, son numéro de téléphone et son adresse e-mail. Il est également possible de sélectionner une personne directement depuis le répertoire du smartphone.
  4. Le contact doit obligatoirement être majeur. L’utilisateur peut modifier ou supprimer ce contact à tout moment. Le contact peut également se retirer de la liste de son côté.

Un point essentiel : la fonctionnalité est optionnelle. L’utilisateur doit l’activer volontairement et désigner un contact. Sans cette configuration, aucune alerte ne peut être envoyée, même si une conversation à risque est détectée. Cette limitation réduit la portée du dispositif : les personnes les plus vulnérables, qui ne pensent pas à paramétrer l’option, ne seront pas protégées.

Contexte juridique et enjeux éthiques

Le déploiement de Trusted Contact s’inscrit dans un contexte de pressions judiciaires accrues contre OpenAI. Plusieurs procès, notamment aux États-Unis, impliquent des familles de victimes de suicide ou d’automutilation. Elles accusent l’entreprise de ne pas avoir suffisamment prévenu les risques, malgré la connaissance de conversations à risque. OpenAI a répondu en mettant en place des mesures techniques, mais aussi en tentant d’obtenir une protection légale contre les poursuites, arguant que les modèles d’IA ne doivent pas être tenus pour responsables des actes de leurs utilisateurs.

Cette position est contestée. Les experts en éthique de l’IA soulignent que la responsabilité ne peut être entièrement transférée à l’utilisateur, surtout lorsque le système est conçu pour simuler une conversation empathique. La fonctionnalité Trusted Contact, bien que bienvenue, reste insuffisante selon certains observateurs : elle repose sur l’initiative de l’utilisateur, alors que ce dernier est précisément dans un état de fragilité où il pourrait ne pas activer une telle option.

OpenAI insiste sur le fait que le dispositif n’a pas vocation à remplacer une intervention médicale d’urgence, mais à offrir un filet de sécurité supplémentaire. La société affirme également que les systèmes de détection s’améliorent constamment, et que des équipes humaines sont formées pour évaluer les situations.

À retenir

  1. Trusted Contact permet d’alerter un proche uniquement si l’utilisateur a préalablement configuré la fonctionnalité dans ses paramètres.
  2. L’alerte est déclenchée après une double vérification (automatique puis humaine), et le contact reçoit une notification sans accès au contenu de la conversation.
  3. OpenAI a développé le dispositif en collaboration avec l’American Psychological Association pour s’assurer de sa pertinence clinique.
  4. La fonctionnalité est disponible pour les adultes ; les contrôles parentaux existent déjà pour les mineurs.
  5. Malgré cette avancée, l’entreprise fait face à des critiques sur le caractère optionnel du dispositif et sur sa responsabilité juridique dans les cas de suicide.

Questions fréquentes

Trusted Contact est-il disponible en France ?

Oui, la fonctionnalité est déployée progressivement et devrait être accessible aux utilisateurs francophones de ChatGPT, y compris en France. L’activation se fait dans les paramètres de l’application.

Que se passe-t-il si la personne de confiance ne répond pas ?

Le dispositif ne prévoit pas de relance automatisée au-delà de la notification. OpenAI recommande aux contacts de prendre des nouvelles rapidement, mais aucun suivi n’est effectué par la plateforme. En cas d’urgence immédiate, il est conseillé d’appeler les services d’urgence locaux (le 15 ou le 112 en France).

Est-ce que ChatGPT peut prévenir les autorités sans mon accord ?

Dans le cadre de Trusted Contact, aucune information n’est transmise aux autorités. L’alerte est uniquement envoyée au contact de confiance désigné. OpenAI indique que la confidentialité des échanges est préservée. En dehors de ce dispositif, la politique de l’entreprise stipule que des signalements aux autorités peuvent être effectués dans les cas extrêmes, mais cela reste exceptionnel.

Puis-je désigner plusieurs contacts de confiance ?

Non, pour l’instant la fonctionnalité ne permet d’ajouter qu’un seul contact de confiance. L’utilisateur peut le modifier à tout moment, mais il n’y a pas de liste multiple.

Conclusion

Le lancement de Trusted Contact par OpenAI constitue une réponse concrète aux critiques et aux poursuites liées aux risques de détresse émotionnelle amplifiée par l’IA. En associant détection automatisée et intervention humaine, la société tente de concilier innovation technologique et responsabilité sociale. Cependant, le caractère optionnel de la fonctionnalité limite son impact potentiel. Les utilisateurs les plus vulnérables, ceux qui ne pensent pas à paramétrer le dispositif, restent exclus du filet de sécurité. Au-delà de cette initiative, la question de la responsabilité juridique des entreprises d’IA dans les dommages psychologiques de leurs utilisateurs demeure ouverte. Les prochains développements réglementaires, notamment en Europe avec l’AI Act, pourraient imposer des obligations plus strictes en matière de prévention et de signalement. En attendant, Trusted Contact représente une avancée pragmatique, mais non une solution définitive.

Prêt à transformer votre entreprise ?

Bénéficiez d'une consultation gratuite avec nos experts en IA.

Réserver un appel gratuit