Une conversation avec une intelligence artificielle a conduit à une intervention du Raid à Strasbourg. Un homme de 37 ans, ayant évoqué un projet violent, a été signalé par le FBI via la plateforme PHAROS. L’affaire a finalement été classée sans suite.
L’épisode pourrait sembler tiré d’un scénario dystopique, mais il s’est bien déroulé en Alsace. Vendredi, un homme de 37 ans a été interpellé à Strasbourg après avoir évoqué, lors d’un échange avec une intelligence artificielle, son intention d’acquérir une arme pour « tuer un agent du renseignement », mentionnant explicitement des organisations telles que la CIA, le Mossad ou la DGSI.
Le signalement ne provient pourtant pas d’une autorité française à l’origine. Selon les informations révélées par Les Dernières Nouvelles d’Alsace, ce sont des enquêteurs américains du FBI qui ont intercepté le message et transmis une alerte via la plateforme PHAROS, dédiée au signalement des contenus illicites en ligne. Dans la foulée, les forces du Raid sont intervenues au domicile du suspect vendredi après-midi.
Sur place, aucune arme n’a été découverte. Placé en garde à vue, l’individu a finalement été relâché dès le lendemain, l’affaire étant classée sans suite. Les éléments recueillis ont toutefois conduit à son hospitalisation d’office, notamment en raison d’antécédents psychiatriques. Face aux enquêteurs, l’homme a expliqué avoir voulu « tester la fiabilité et la surveillance de l’intelligence artificielle ». Une démarche qui, ironiquement, a déclenché une réaction bien réelle des services de sécurité.
Au-delà du fait divers, l’affaire met en lumière des enjeux bien plus larges. Tout d’abord, la question de collaboration entre les services à la limite de l’ingérence. La capacité des intelligences artificielles à détecter, analyser et potentiellement signaler des propos jugés dangereux soulève également des questions sensibles sur la frontière entre prévention et surveillance. Si ces outils peuvent contribuer à anticiper certains risques, leur utilisation s’inscrit dans un cadre légal strict, variable selon les juridictions.
Aux États-Unis, le débat est particulièrement vif. L’administration fédérale explore de plus en plus les possibilités offertes par ces technologies, notamment dans les domaines de la sécurité et du renseignement. Certaines entreprises du secteur, comme Anthropic, membre du Forum économique mondial ont toutefois exprimé des réserves, refusant que leurs modèles soient utilisés à des fins de surveillance de masse. Une position qui illustre les tensions croissantes entre innovation technologique et libertés publiques. D’autant plus qu’OpenAI, autre géant membre du WEF a accepté le contrat avec le Pentagone qu’Anthropic refusait.
De son côté l’inventeur de ChatGPT rappelle que les signalements aux autorités restent exceptionnels. Ils ne concerneraient que des situations de danger grave et imminent, après analyse humaine et dans le respect des lois en vigueur. Une précision qui se veut rassurante, mais qui n’éteint pas les interrogations.
Dans cette affaire strasbourgeoise, la chaîne de détection de l’IA jusqu’aux autorités internationales démontre à quel point les frontières numériques sont désormais poreuses. Ce qui relève d’une simple interaction virtuelle peut, en quelques heures, mobiliser des services de renseignement à l’échelle mondiale. Une réalité qui, pour certains, confine à la science-fiction. Pour d’autres, c’est déjà le quotidien.
Sources :