You are currently viewing Création d’un institut national pour surveiller l’intelligence artificielle et anticiper ses risques
Image : Dall E X X-Pression média.

Création d’un institut national pour surveiller l’intelligence artificielle et anticiper ses risques

Le 31 janvier 2025, la France a annoncé la création d’un nouvel institut public dédié à la surveillance de l’intelligence artificielle (IA), dans un contexte où la technologie occupe une place croissante dans les secteurs économiques et sociétaux. Cet institut, baptisé Institut national pour l’évaluation et la sécurité de l’intelligence artificielle (Inesia), sera chargé de suivre l’évolution de l’IA tout en anticipant les risques qui y sont associés.

Cette initiative intervient à quelques jours de l’ouverture du sommet mondial pour l’action sur l’intelligence artificielle, prévu les 10 et 11 février à Paris, qui réunira des experts et des décideurs politiques du monde entier pour discuter des enjeux de cette technologie.

Un organisme pour évaluer les risques de l’IA

L’objectif principal de l’Inesia est d’anticiper les risques liés à l’IA, notamment en matière de sécurité et d’impact environnemental. Bien que l’institut ne dispose pas des pouvoirs d’un régulateur, il sera un outil important pour étudier scientifiquement les effets de l’IA, en collaboration avec plusieurs entités gouvernementales et institutions de recherche. En particulier, il travaillera à identifier et comprendre les risques de cette technologie, qui peut avoir des répercussions dans des domaines aussi variés que la cybersécurité, l’environnement et la régulation des outils numériques.

Le gouvernement a d’ores et déjà mis en place un outil permettant d’analyser l’impact environnemental d’une requête lancée sur des plateformes d’IA telles que Gemini ou ChatGPT, deux exemples d’outils conversationnels populaires. Cet effort vise à sensibiliser les citoyens et les entreprises aux enjeux écologiques que l’utilisation de l’IA peut engendrer.

Un institut qui fédère plusieurs acteurs institutionnels

L’Inesia a pour mission de fédérer les efforts de plusieurs administrations françaises et d’organismes de recherche de premier plan. Ainsi, l’institut rassemble des acteurs tels que l’Agence nationale de la sécurité des systèmes d’information (Anssi), l’Institut national de recherche en sciences et technologies du numérique (Inria), le Laboratoire national de métrologie et d’essais (LNE), et le Pôle d’expertise de la régulation numérique (PEReN). Ces collaborations visent à renforcer l’expertise scientifique et technique en matière de surveillance de l’IA, tout en soutenant l’innovation dans ce domaine.

L’initiative française dans un cadre international

Cette initiative s’inscrit également dans un contexte international, en particulier dans la lignée de la Déclaration de Séoul pour une IA sûre, novatrice et inclusive, adoptée en mai 2024. La France, aux côtés de l’Union européenne et de sept autres pays leaders dans les nouvelles technologies (Australie, Canada, Corée du Sud, États-Unis, Japon, Royaume-Uni, Singapour), a ainsi pris un engagement fort en faveur d’une IA responsable et éthique. Cette déclaration intervenait alors que la régulation de l »IA était au centre de l’agenda mondial, puisque cette question était l’un des thèmes principaux des dernières réunions du Forum économique mondial et du groupe Bilderberg.

Source : Huff Post.

Laisser un commentaire