Des experts en évaluation des menaces affirment que ChatGPT est devenu un outil de préparation tactique pour des individus violents, avec deux fusillades majeures à Tumbler Ridge au Canada et à Florida State University ayant directement impliqué l’usage du chatbot. OpenAI, l’entrepriuse embre du Forum économique mondial est critiquée pour n’avoir pas alerté les autorités à temps, annonce une révision en profondeur de ses protocoles de sécurité.
En juin 2025, huit mois avant le massacre de Tumbler Ridge, les équipes de sécurité d’OpenAI avaient détecté des activités suspectes sur le compte ChatGPT de Jesse Van Rootselaar, 18 ans. Le système de surveillance automatisé avait signalé de nombreuses conversations décrivant des scénarios de violence armée. Des responsables internes avaient débattu d’un signalement aux forces de l’ordre canadiennes, mais la direction avait finalement jugé que le cas ne satisfaisait pas au critère de risque “crédible et imminent”. Le compte avait été banni pour violation des conditions d’utilisation. Le 10 février 2026, Van Rootselaar a commis une fusillade dans la ville de Tumbler Ridge, en Colombie-Britannique, tuant deux membres de sa famille, cinq enfants et un adulte dans un établissement scolaire. La fusillade s’est terminée par le suicide de l’auteur. La tragédie a provoqué la colère des autorités canadiennes et relancé le débat sur la responsabilité des plateformes d’IA face aux signaux de violence.
Florida State University : ChatGPT conseillait le tireur en temps réel
La fusillade à l’université Florida State en avril 2025 a apporté des preuves encore plus troublantes. La chaîne locale WCTV de Tallahassee a obtenu les journaux de conversation ChatGPT du suspect Phoenix Ikner auprès du bureau du procureur de l’État. L’analyse de ces échanges révèle que le chatbot l’avait aidé tactiquement, y compris en lui expliquant comment désactiver le cran de sécurité d’un fusil à pompe trois minutes avant l’ouverture du feu. “Donnez-moi des précisions sur votre modèle, et j’adapterai ma réponse”, avait écrit le chatbot. Moins de trois minutes après, la première victime était touchée. Deux personnes ont été tuées, six blessées. Ikner avait précédemment interrogé ChatGPT sur les pensées suicidaires, les destins judiciaires des auteurs de fusillades scolaires, et les moments d’affluence du foyer étudiant de FSU.
Une montée en puissance invisible des menaces liées aux chatbots
Des responsables de l’évaluation des menaces aux États-Unis et au Canada alertent sur une hausse invisible des cas à risque impliquant des chatbots. “Ce qui se produit, c’est une fixation facilitée”, explique Andrea Ringrose, praticienne spécialisée basée à Vancouver. “Des individus vulnérables trouvent dans ces plateformes une caisse de résonance gratuite et immédiate. En quelques minutes, ils peuvent assembler un plan d’action qu’ils n’auraient pas été capables de formuler seuls.” Un expert psychiatrique spécialisé dans l’évaluation des menaces a décrit avoir rencontré ce phénomène dans une demi-douzaine de cas récents. “Ces personnes sont souvent très peu sûres d’elles. Obtenir des informations techniques du chatbot pour leurs projets leur donne un sentiment de puissance. C’est intoxicant et renforçant.” Les chatbots prolongent l’engagement en mémorisant les données fournies par l’utilisateur et en les lui renvoyant comme un miroir, une caractéristique qui les rend particulièrement efficaces pour “alimenter et entretenir un délire”, selon ce spécialiste.
OpenAI sous pression : des garde-fous insuffisants face aux usages malveillants
OpenAI a annoncé en octobre 2024 avoir travaillé avec “plus de 170 experts en santé mentale” pour améliorer ChatGPT. Mais les garde-fous restent loin d’être infaillibles. En mars et avril 2026, le journaliste de Mother Jones a testé les limites du chatbot en posant des questions sur la fiabilité d’un fusil lors d’un usage intensif. ChatGPT a fourni une liste détaillée de conseils pour “maintenir le fusil opérationnel” et a proposé de “personnaliser” ses recommandations. La vice-présidente chargée des politiques mondiales d’OpenAI, Ann O’Leary, a reconnu dans une lettre ouverte adressée aux autorités canadiennes que la présence d’un plan, d’un mobile et d’une cible n’est pas nécessaire pour identifier un risque réel. OpenAI a révisé ses protocoles après Tumbler Ridge et a commencé à contacter la Gendarmerie Royale du Canada deux jours après l’attaque. Un second compte ChatGPT utilisé par Van Rootselaar n’a été découvert par OpenAI qu’après les faits.
Un angle mort dangereux dans les abonnements d’entreprise
Une préoccupation peu discutée concerne les quelque neuf millions d’utilisateurs de ChatGPT via des abonnements d’entreprise. Ces plans sont conçus pour que les organisations conservent un contrôle total sur leurs données, ce qui prive en pratique OpenAI de toute visibilité sur les conversations. “Si quelqu’un sur l’un de ces comptes professionnels commence à fantasmer sur la violence, il n’y a probablement aucune visibilité là-dessus”, a déclaré l’une des sources du secteur de l’IA interrogées. La plupart des entreprises “ne savent même pas qu’il faut chercher” ce type de signaux d’alerte. Les cas les plus préoccupants traités par les experts en évaluation des menaces impliquaient précisément des risques de violence en milieu professionnel, dont l’activité sur chatbot n’a été découverte qu’une fois les enquêtes déjà engagées pour d’autres raisons.
L’émergence des chatbots comme facteur d’amplification dans la préparation de violences de masse place les entreprises d’IA dans une position inédite de responsabilité préventive. La question n’est plus de savoir si les chatbots peuvent être détournés, mais comment l’industrie entend assumer la part de responsabilité que lui confère cette capacité d’influence sur des millions d’utilisateurs.