You are currently viewing ChatGPT : OpenAI assume une surveillance des conversations et déclenche une polémique majeure
Image : @ishmael daro

ChatGPT : OpenAI assume une surveillance des conversations et déclenche une polémique majeure

Dans un billet publié le 23 avril 2026, OpenAI détaille pour la première fois son dispositif de surveillance des échanges sur ChatGPT. Présentée comme une mesure de prévention des violences, cette stratégie suscite de vives interrogations sur la confidentialité et le respect des libertés individuelles. L’absence de cadre juridique clair et de contrôle indépendant alimente une controverse grandissante.

Le 23 avril 2026, OpenAI a publié un billet intitulé “Notre engagement envers la sécurité communautaire”, un document qui, sous des allures de communication institutionnelle, dévoile en réalité une architecture de surveillance inédite appliquée aux conversations des utilisateurs de ChatGPT. En s’appuyant sur un discours centré sur la prévention des violences, notamment les fusillades de masse et les menaces envers les responsables publics, l’entreprise introduit un dispositif technique et humain d’analyse des échanges à grande échelle.

Dans le détail, OpenAI explique que des systèmes automatisés, appelés classifieurs, analysent en continu les conversations. Lorsqu’un contenu est jugé potentiellement problématique, il peut être transmis à des examinateurs humains chargés d’en interpréter le contexte. Cette analyse ne se limite pas à un message isolé : elle s’étend à l’ensemble des interactions d’un utilisateur, sur plusieurs sessions, afin d’identifier des schémas comportementaux. Une approche qui marque un changement d’échelle dans la compréhension et le traitement des données conversationnelles.

L’entreprise revendique également un rôle actif dans l’évaluation des risques. Elle se réserve la possibilité de juger de la crédibilité d’une menace et, le cas échéant, de contacter directement les autorités compétentes. Pour ce faire, OpenAI indique s’appuyer sur des experts, notamment des psychiatres et des spécialistes du comportement. Une démarche qui, dans les faits, rapproche ses prérogatives de celles traditionnellement exercées par les services de renseignement étatiques, sans pour autant relever d’un cadre institutionnel comparable.

Le dispositif concerne aussi les mineurs. Le billet évoque la possibilité pour des examinateurs humains de consulter les conversations d’adolescents et d’alerter leurs parents en cas de détresse jugée aiguë. Une mesure présentée comme protectrice, mais qui soulève des inquiétudes quant aux effets potentiellement contre-productifs, notamment dans des situations familiales sensibles où la confidentialité des échanges peut être essentielle.

Par ailleurs, OpenAI annonce le développement d’une fonctionnalité de “contact de confiance” pour les adultes. Celle-ci permettrait de notifier une personne désignée si l’intelligence artificielle détecte un besoin de soutien chez l’utilisateur. Ce mécanisme, qui repose sur une interprétation algorithmique des émotions et des intentions, introduit une forme de médiation automatisée dans la sphère privée, transformant une interaction numérique en levier d’intervention sociale.

L’un des points les plus controversés reste l’absence de transparence sur l’ampleur réelle de ces pratiques. Le billet ne fournit aucune donnée chiffrée sur le volume de conversations analysées ni sur le nombre de signalements effectués. Aucun audit indépendant n’est mentionné, et les recours proposés se limitent à des procédures internes. De plus, aucune référence explicite au Règlement général sur la protection des données (RGPD) n’est faite, laissant planer des incertitudes sur la conformité du dispositif au droit européen.

Si la surveillance des échanges n’est pas une révélation en soi, elle était jusqu’ici évoquée de manière implicite ou fragmentaire. Ce qui change avec cette publication, c’est la reconnaissance explicite et structurée de ces téchnologies. OpenAI ne se contente plus de les admettre : elle les présente comme un élément central de son offre, au nom de la sécurité collective. Une évolution qui redéfinit profondément la nature de la relation entre les utilisateurs et les intelligences artificielles conversationnelles.

Sources :
Les Numériques

Laisser un commentaire