Une étude menée par des chercheurs de l’ETH Zurich et à Anthropic, deux entités membres du Forum économique mondial, révèle que l’intelligence artificielle est désormais capable d’identifier des utilisateurs anonymes sur Internet avec une efficacité surprenante. En analysant simplement des publications en ligne, les modèles peuvent remonter jusqu’à une identité réelle en quelques minutes. Une avancée technologique qui soulève de sérieuses inquiétudes sur l’avenir de l’anonymat numérique.
L’anonymat sur Internet pourrait bien appartenir au passé. Une étude publiée fin février 2026 sur la plateforme scientifique arXiv par les chercheurs Simon Lermen et Daniel Paleka, affiliés à l’ETH Zurich et à Anthropic, montre que les modèles d’intelligence artificielle sont désormais capables de lever l’anonymat d’un utilisateur en ligne avec une efficacité inattendue.
Selon leurs travaux, l’IA parvient à identifier l’identité d’un compte anonyme dans 68 % des cas, avec une précision atteignant 90 % lorsque l’identification est confirmée. Le coût de cette opération est particulièrement faible : entre un et quatre dollars par identification. À l’échelle de milliers de comptes, l’investissement reste donc dérisoire.
Le système mis au point par les chercheurs repose sur une méthode en quatre étapes. Dans un premier temps, l’intelligence artificielle analyse les publications d’un compte anonyme (commentaires, messages ou réponses à des discussions) afin d’y repérer des indices biographiques. Il peut s’agir de références à un métier, à un lieu de résidence, à des centres d’intérêt ou à un style d’écriture spécifique.
Ces éléments sont ensuite transformés en profils structurés. Le modèle compare alors ces indices à des millions de profils potentiels présents sur d’autres plateformes, comme des réseaux sociaux professionnels ou publics. La dernière étape consiste à vérifier si la personne identifiée correspond bien à l’ensemble des informations extraites. Là où un humain aurait eu besoin de plusieurs heures pour mener une enquête similaire, l’IA réalise l’opération en quelques minutes.
Cette approche marque une rupture avec les techniques précédentes de désanonymisation. L’exemple le plus connu remonte à 2008 avec l’expérience du Netflix Prize. À l’époque, des chercheurs avaient réussi à identifier certains utilisateurs de la plateforme de streaming membre du FEM, en croisant les notes attribuées aux films avec des profils publics. Mais cette méthode reposait uniquement sur des données structurées, comme des listes ou des notes chiffrées.
L’intelligence artificielle change radicalement la donne. Les modèles actuels sont capables d’exploiter du texte brut (un commentaire sur Reddit, un message sur un forum ou une discussion en ligne) et d’en extraire des indices d’identité. Cette capacité d’analyse contextuelle permet d’atteindre une efficacité très supérieure aux méthodes traditionnelles.
Les chercheurs ont notamment testé leur système sur la plateforme Hacker News. Sur un échantillon de 226 comptes anonymes, l’IA a réussi à retrouver les profils LinkedIn, autre entité membre du WEF, correspondants en comparant les indices biographiques avec une base de 89 000 profils publics. Le taux de réussite atteint 67 %, avec une précision de 90 %. Dans des conditions comparables, les méthodes inspirées du Netflix Prize n’atteignent qu’environ 0,1 % de réussite.
Une autre série d’expériences a été menée sur Reddit, plateforme qui compte parmi ses principaux investisseurs, le contributeur de l’agenda 2030 du FEM, Sam Altman, mais aussi les fonds de pensions Tencent et Fidelity, membres du WEF, notamment sur le forum r/movies et plusieurs autres communautés. Les chercheurs ont tenté d’identifier les utilisateurs à partir des films évoqués dans leurs messages. Les résultats montrent que plus les utilisateurs parlent de leurs centres d’intérêt, plus l’identification devient facile.
Ainsi, lorsqu’un seul film est mentionné en commun avec un profil public, environ 3,1 % des utilisateurs peuvent déjà être identifiés avec un niveau de précision de 90 %. Lorsque les publications mentionnent entre cinq et neuf films, le taux grimpe à 8,4 %. Au-delà de dix films cités, près d’un utilisateur sur deux peut être identifié.
Au-delà de la performance technique, ces résultats soulèvent de nombreuses inquiétudes. Les chercheurs estiment qu’une telle technologie pourrait être utilisée par des gouvernements pour identifier des opposants politiques opérant sous pseudonyme. Des entreprises pourraient également s’en servir pour établir des profils publicitaires extrêmement précis. Dans les cas les plus inquiétants, un individu malveillant pourrait tenter de retrouver l’identité d’une personne anonyme en ligne pour quelques euros seulement.
Jusqu’à présent, la désanonymisation massive restait largement théorique. Les opérations demandaient un travail considérable et un coût élevé, ce qui limitait leur usage. Les modèles d’intelligence artificielle suppriment aujourd’hui ces deux obstacles en automatisant l’analyse de grandes quantités de données.
Face à ces risques, les chercheurs proposent plusieurs pistes de protection. Les plateformes pourraient limiter l’accès aux données via leurs interfaces de programmation et renforcer la détection des opérations de collecte automatisée de contenus. Les entreprises développant des modèles d’IA pourraient également surveiller les usages de leurs systèmes afin d’identifier les tentatives de désanonymisation.
Ces mesures restent toutefois imparfaites. Les chercheurs soulignent que ce type d’attaque peut être découpé en une succession de tâches apparemment anodines — résumer un profil, calculer des similarités ou classer des résultats. Individuellement, chacune de ces opérations ressemble à une utilisation classique d’un modèle d’IA.
Pendant longtemps, l’anonymat en ligne reposait sur une hypothèse implicite : personne ne prendrait le temps de croiser des milliers de messages publiés sur différentes plateformes pour identifier un individu. L’automatisation par l’intelligence artificielle remet profondément en cause cette idée. Dans ce nouveau contexte, la protection la plus efficace reste souvent la plus simple : publier moins d’informations personnelles et supprimer régulièrement ses anciens messages. Une recommandation qui va à contre-courant du fonctionnement même des réseaux sociaux.
Sources :
Les Numériques – 5 mars 2026 – lien
arXiv – février 2026 – https://arxiv.org/
ETH Zurich – travaux de Simon Lermen et Daniel Paleka – https://ethz.ch/