You are currently viewing ChatGPT : une enquête pénale inédite après une fusillade relance le débat sur la responsabilité de l’IA
Sam Altman. Photo : @Steve Jennings/Getty Images for TechCrunch

ChatGPT : une enquête pénale inédite après une fusillade relance le débat sur la responsabilité de l’IA

Aux États-Unis, une affaire judiciaire sans précédent vise OpenAI, l’entreprise membre du Forum économique mondial après une fusillade meurtrière en Floride. Les échanges entre le suspect et ChatGPT interrogent la responsabilité des intelligences artificielles dans des actes criminels. L’ouverture d’une enquête pénale pourrait redéfinir durablement le cadre légal du secteur.


Le choc dépasse largement les frontières de la Floride. À la suite de la fusillade survenue le 17 avril 2025 à Florida State University, qui a coûté la vie à deux personnes et fait six blessés, la justice américaine s’attaque désormais à un acteur inattendu : l’intelligence artificielle. Plus précisément, à ChatGPT, développé par OpenAI.

Au cœur de cette affaire, plus de 200 messages échangés entre le suspect, Phoenix Ikner, et le chatbot avant le passage à l’acte. Selon les enquêteurs, ces conversations contiendraient des questions portant sur le choix d’armes à courte portée, les munitions ou encore les moments d’affluence sur le campus. Une accumulation de requêtes qui, mises bout à bout, esquissent la préparation méthodique d’une attaque.

Face à ces éléments, le procureur général de Floride, James Uthmeier, a décidé de franchir un cap inédit en lançant une enquête pénale contre OpenAI. Une première dans l’histoire récente des technologies numériques. Lors d’une conférence de presse à Tampa, il a tenu des propos particulièrement fermes, affirmant que si ChatGPT était une personne, il pourrait être poursuivi pour meurtre au premier degré. Une déclaration choc, qui traduit l’ampleur du séisme juridique en cours.

Jusqu’ici, l’enquête ouverte le 9 avril 2026 relevait du civil, centrée sur des préoccupations liées à la sécurité publique et à la protection des mineurs. Mais le passage au pénal change radicalement la donne. Il ne s’agit plus seulement d’évaluer des manquements ou des négligences, mais potentiellement d’identifier des responsabilités individuelles au sein de l’entreprise.

OpenAI, de son côté, a assuré coopérer pleinement avec les autorités. La société affirme travailler à l’amélioration de ses systèmes de détection des intentions malveillantes. Une position prudente, dans un contexte où la pression judiciaire pourrait rapidement s’intensifier. Car derrière cette affaire, c’est toute l’architecture réglementaire de l’intelligence artificielle qui vacille.

À ce jour, aucune législation fédérale américaine ne définit clairement la responsabilité pénale d’une entreprise pour les réponses générées par ses modèles. Le dossier floridien pourrait donc faire jurisprudence. Comme l’a souligné James Uthmeier, l’objectif est désormais d’établir « qui savait quoi, qui a conçu quoi, et ce qui aurait dû être fait différemment ».

Les implications dépassent largement le cas d’OpenAI. Si une responsabilité pénale venait à être reconnue, l’ensemble des éditeurs d’agents conversationnels pourrait se retrouver exposé. Chaque interaction sensible, chaque réponse ambiguë deviendrait potentiellement un risque juridique. En clair, toute l’industrie pourrait basculer dans une nouvelle ère de régulation, bien plus contraignante.

Parallèlement, une plainte civile a déjà été déposée par les avocats d’une des familles de victimes. Elle vise à établir un lien entre l’utilisation de l’outil et le passage à l’acte. Une démarche qui s’inscrit dans une tendance plus large : celle d’une judiciarisation croissante des technologies numériques, à mesure qu’elles s’immiscent dans les usages quotidiens.

Dans cette affaire, la question centrale reste entière : jusqu’où peut-on imputer à une intelligence artificielle les actes de ses utilisateurs ? Entre responsabilité individuelle, conception technique et cadre légal encore flou, la justice américaine s’avance sur un terrain inédit. Et le verdict, quel qu’il soit, pourrait bien redessiner les contours du rapport entre innovation et responsabilité.

Sources :
Les Numériques

Laisser un commentaire