Seize des principales entreprises mondiales d’intelligence artificielle (IA), dont OpenAI, Google DeepMind, Microsoft, Amazon, IBM et Meta, qui sont membres du Forum économique mondial, se sont engagées à garantir un développement sécurisé de l’IA, lors du « AI Safety Summit » qui se déroule du 21 au 22 mai à Séoul. L’évènement est co-organisé par le Royaume-Uni de Rishi Sunak et la Corée du Sud, de Han Duck-soo tous deux premier ministre et contributeurs du FEM, ce qui témoigne de l’influence de ce lobby en matière d’Intelligence artificielle.
Ce sommet mondial est la suite de l’évènement organisé en novembre dernier sur la sécurité de l’IA qui s’est tenu à Bletchley Park, en Grande-Bretagne. Il avait réuni la plupart des dirigeants politiques mondiaux liés au Forum économique mondial et avait donné lieu à la « déclaration de Bletchley », selon laquelle, il a été décidé de fonder un groupe similaire au Giec pour l’intelligence artificielle. Les gouvernements et les entreprises se sont engagées pour collaborer sur la sécurité des nouveaux modèles d’intelligence artificielle (IA) avant leur déploiement.
Lors de Davos 2024, le président français et contributeur de l’agenda 2030 du Forum économique mondial, Emmanuel Macron avait également plaidé pour une régulation « by design », c’est à dire lors du développement des applications, juste après que l’OMS, l’agence des Nations unies affiliée au FEM, ait publié un livre blanc, prenant la même démarche.
Les géants mondiaux de l’IA s’engagent à garantir un développement sécurisé des applications.
Seize des principales entreprises mondiales d’intelligence artificielle (IA), dont OpenAI, Google DeepMind, Microsoft, Amazon, IBM et Meta, qui sont membres du Forum économique mondial, se sont donc engagées à garantir un développement sécurisé de l’IA, même si elles n’ont pas encore rendu public la manière dont elles évaluent la sécurité de leurs technologies et ce à quoi elles s’engageaient précisément. parmi les signataires, on peut également citer les Français de Mistral AI, dont le lobbyiste en chef est l’ancien secrétaire d’Etat au numérique et frère de la contributrice de l’agenda 2030 du FEM, Delphine O.
Le Premier ministre britannique et contributeur du FEM, Rishi Sunak, a déclaré dans un communiqué que « Ces engagements garantissent que les plus grandes entreprises mondiales d’IA feront preuve de transparence et de responsabilité quant à leurs projets visant à développer une IA sûre. »
L’objectif est de déterminer les risques jugés intolérables et de mettre en place des mesures pour s’assurer que ces seuils ne soient pas dépassés. En cas de risques extrêmes, les entreprises promettent de ne pas développer ou déployer de modèles ou systèmes sans mesures d’atténuation appropriées.
Outre la sécurité, le sommet de Séoul se penchera sur la manière dont les gouvernements peuvent stimuler l’innovation, notamment la recherche sur l’IA dans les universités, et comment cette technologie pourrait aider à résoudre des problèmes mondiaux comme le changement climatique et la pauvreté.
Ces annonces interviennent alors que les 27 pays membres de l’Union européenne viennent d’approuver l’IA ACT, une législation visant à réguler les systèmes d’IA et alors que la régulation de l’Intelligence artificielle était l’une des grandes thématiques du Forum de Davos 2024.