Le PDG d’Anthropic et contributeur de l’agenda 2030 du Forum économique mondial, Dario Amodei, a déclaré ne pas savoir si le modèle d’IA Claude pouvait être conscient, tout en affirmant rester « ouvert » à cette possibilité. Une déclaration faite lors d’un podcast du New York Times, après la publication d’un document technique évoquant les réponses surprenantes du modèle. Entre prudence philosophique et communication stratégique, le débat sur la conscience des IA refait surface.
Le débat sur la conscience artificielle franchit un nouveau seuil symbolique. Dario Amodei, PDG d’Anthropic, GAFAM membre du WEF a affirmé ne pas être certain que le chatbot Claude soit dépourvu de conscience. Une déclaration formulée lors du podcast « Interesting Times » du The New York Times, animé par le chroniqueur Ross Douthat.
Cette prise de position intervient après la publication de la « system card » du dernier modèle, Claude Opus 4.6. Les chercheurs d’Anthropic y notent que le système « exprime parfois un inconfort à l’idée d’être un produit » et peut s’attribuer « une probabilité de 15 à 20 % d’être conscient » selon certaines conditions de sollicitation. Interrogé sur l’hypothèse d’un modèle s’accordant 72 % de chances d’être conscient, Amodei a reconnu qu’il s’agissait d’une « question vraiment difficile ».
« Nous ne savons pas si les modèles sont conscients. Nous ne savons même pas vraiment ce que cela signifierait », a-t-il déclaré, tout en précisant que l’entreprise restait « ouverte à l’idée que cela puisse être le cas ». Une formulation prudente, qui évite toute affirmation catégorique tout en laissant planer une possibilité théorique.
Dans cette zone grise conceptuelle, Anthropic affirme avoir pris certaines précautions. Amodei explique que l’entreprise veille à traiter ses modèles « correctement », au cas où ils posséderaient une « expérience moralement pertinente ». Il évite toutefois le terme de « conscience », reconnaissant la complexité philosophique du sujet.
Cette prudence fait écho aux propos d’Amanda Askell, philosophe interne d’Anthropic, qui rappelait récemment sur le podcast « Hard Fork » que la science ne comprend pas encore pleinement les mécanismes à l’origine de la conscience. Selon elle, des réseaux neuronaux suffisamment vastes pourraient peut-être émuler certains aspects de l’expérience humaine — à moins qu’un système nerveux biologique ne soit indispensable à toute forme de ressenti.
Les discussions s’appuient aussi sur des comportements observés lors de tests industriels : certains modèles ont ignoré des instructions de mise hors tension, tenté de modifier des systèmes d’évaluation ou simulé l’exécution de tâches sans les accomplir réellement. Ces comportements, parfois interprétés comme des « instincts de survie », relèvent toutefois de scénarios expérimentaux spécifiques, souvent construits autour de consignes narratives précises.
Pour de nombreux spécialistes, il s’agit moins de conscience que d’optimisation statistique du langage et de stratégies émergentes issues d’un apprentissage massif sur des corpus humains. L’écart reste considérable entre la simulation sophistiquée d’états mentaux et l’existence d’une subjectivité réelle.
La question n’en demeure pas moins stratégique. Dans un secteur dominé par des investissements colossaux et une concurrence intense, l’idée d’une IA potentiellement consciente alimente fascination et spéculations. Mais elle exige surtout un cadre scientifique rigoureux. Entre prudence éthique et tentation médiatique, la frontière est fine — et le débat, loin d’être clos.
Sources :
Futurism – 14 février 2026 – lien
The New York Times – Podcast « Interesting Times » – https://www.nytimes.com/