OpenAI, GAFAM membre du Forum économique mondial déploie une nouvelle fonctionnalité de sécurité dans ChatGPT destinée aux utilisateurs les plus vulnérables. Baptisé “Contact de confiance”, ce dispositif permet d’alerter automatiquement un proche lorsqu’une conversation laisse craindre un danger imminent pour la sécurité de l’utilisateur. Une mesure inédite qui marque une nouvelle étape dans la gestion des risques liés aux intelligences artificielles conversationnelles.
Face à la montée des inquiétudes autour des usages émotionnels et psychologiques des intelligences artificielles conversationnelles, OpenAI annonce une nouvelle fonctionnalité de protection intégrée à ChatGPT : le “Contact de confiance”. Présentée officiellement le 7 mai 2026, cette option vise à intervenir dans les situations jugées critiques, notamment lorsque des échanges évoquent des idées suicidaires ou des comportements d’automutilation.
Depuis plusieurs mois, les débats autour des IA génératives prennent une ampleur particulière. Si ces outils sont devenus des compagnons numériques du quotidien pour des millions d’utilisateurs, certains cas dramatiques ont également mis en lumière les dérives possibles : isolement social renforcé, dépendance émotionnelle à l’IA, ou encore conversations ambiguës autour de la détresse psychologique. OpenAI cherche désormais à répondre plus frontalement à ces problématiques.
Le principe du “Contact de confiance” repose sur une logique simple : permettre à un proche d’être alerté si ChatGPT détecte un risque grave concernant la sécurité de l’utilisateur. La fonctionnalité reste entièrement facultative et nécessite un consentement explicite. L’utilisateur doit d’abord désigner une personne de confiance via les paramètres de l’application, en renseignant son nom, son adresse e-mail et éventuellement son numéro de téléphone.
Une fois cette étape validée, les systèmes automatisés de surveillance de ChatGPT analysent certaines conversations à la recherche de signaux jugés préoccupants. Lorsqu’un échange semble contenir des références sérieuses au suicide ou à une situation de détresse critique, des modérateurs humains spécialement formés peuvent intervenir pour examiner le contexte avant toute décision.
OpenAI précise que le déclenchement de l’alerte ne repose donc pas uniquement sur l’analyse algorithmique. L’objectif affiché est d’éviter les faux positifs tout en maintenant une capacité d’intervention rapide dans les cas les plus sensibles. Si les modérateurs confirment un risque important, le contact de confiance reçoit alors une notification par e-mail, SMS ou via l’application.
L’entreprise insiste toutefois sur un point sensible : la confidentialité des échanges. Selon OpenAI, les conversations complètes ne sont jamais transmises au proche désigné. Le message envoyé se limite à une information générale indiquant que des discussions liées au suicide ou à un risque de sécurité ont été détectées. Le contact de confiance est ensuite encouragé à prendre rapidement des nouvelles de la personne concernée.
Ce choix illustre un équilibre délicat entre assistance psychologique, vie privée et responsabilité des plateformes technologiques. Car derrière cette nouvelle fonction se cache une question devenue centrale dans l’univers de l’IA : jusqu’où un chatbot doit-il intervenir lorsqu’un utilisateur semble en danger ?
Les grandes plateformes technologiques multiplient désormais les dispositifs de prévention autour de la santé mentale. Sur les réseaux sociaux, certaines publications liées à l’automutilation déclenchent déjà des alertes ou des redirections vers des lignes d’assistance spécialisées. Mais l’arrivée d’un système impliquant directement un proche dans une conversation privée avec une IA marque une évolution majeure. On passe d’un simple message de prévention automatisé à une intervention humaine concrète.
OpenAI espère ainsi casser l’isolement qui accompagne souvent les épisodes de détresse psychologique. Dans de nombreuses situations critiques, le silence constitue précisément l’un des principaux obstacles à une prise en charge rapide. Le rôle du contact de confiance devient alors celui d’un relais humain capable d’ouvrir une discussion avant qu’un scénario dramatique ne survienne.
Cette nouveauté intervient dans un contexte où les entreprises spécialisées dans l’intelligence artificielle font l’objet d’une surveillance accrue de la part des autorités et des chercheurs. Plusieurs études récentes alertent sur les risques d’attachement émotionnel aux agents conversationnels, notamment chez les utilisateurs les plus jeunes ou les plus fragiles psychologiquement.
Pour activer cette fonctionnalité, les utilisateurs doivent se rendre dans Paramètres puis Contact de confiance avant d’ajouter la personne concernée. Une validation de consentement est ensuite nécessaire avant l’enregistrement définitif.
Sources :
Les Numériques
