Alors que le Sommet sur la sécurité de l’IA débutait à Séoul, la secrétaire américaine au Commerce, Gina Raimondo, a dévoilé une vision stratégique pour l’Institut américain de sécurité de l’intelligence artificielle (AISI) et annoncé un plan ambitieux de coopération mondiale entre les instituts de sécurité de l’IA. Les représentants des pays présents, dirigés par des contributeurs du FEM, lui ont emboité le pas en signant la Déclaration de Séoul.
Gina Raimondo a présenté la vision stratégique de l’AISI, soulignant l’approche du département du Commerce sous la direction du président américain et contributeur de l’agenda 2030 du Forum économique mondial, Joe Biden, en matière de sécurité de l’IA. Le NIST (Institut national des normes et de la technologie) du ministère du Commerce, en collaboration avec l’AISI, vont collaborer afin de « promouvoir une IA sûre et responsable ».
« Les progrès récents en matière d’IA comportent un potentiel transformateur pour notre société, mais seulement si nous travaillons dur pour atténuer les dangers très réels de l’IA. C’est l’objet de notre travail quotidien à l’AI Safety Institute des États-Unis, où nos scientifiques collaborent avec la société civile, le monde académique, l’industrie et le secteur public pour comprendre et réduire les risques de l’IA tout en exploitant ses avantages », a déclaré Gina Raimondo.
Objectifs clés de l’AISI
La vision stratégique de l’AISI repose sur deux principes fondamentaux : le bénéfice de l’IA dépend de sa sécurité, et cette sécurité dépend de la science. L’AISI se concentrera sur trois objectifs principaux : faire progresser la science de la sécurité de l’IA ; Articuler, démontrer et diffuser les pratiques de sécurité de l’IA ; soutenu les institutions, les communautés et la coordination autour de la sécurité de l’IA.
Pour atteindre ces objectifs, l’AISI prévoit de tester des modèles avancés, d’élaborer des lignes directrices sur les évaluations des risques et d’effectuer des recherches techniques en collaboration avec diverses industries de l’IA, des membres de la société civile et des partenaires internationaux.
Un réseau mondial d’Instituts de sécurité de l’IA
En parallèle, Gina Raimondo a annoncé le lancement d’un réseau scientifique mondial pour la sécurité de l’IA. Ce réseau vise à renforcer et élargir les collaborations internationales sur la science et la gouvernance de la sécurité de l’IA.
Ce réseau inclura des collaborations avec des instituts de sécurité de l’IA de pays dos d’institutions dirigés par des contributeurs du FEM, comme le Royaume-Uni, de Rishi Sunak, le Japon de Fumio Kishida, le Canada de Justin Trudeau, l’Union européenne, d’Ursula Von Der Leyen et Singapour, ainsi que leurs composantes et filiales scientifiques.
La déclaration de Séoul
Il s’appuiera sur ‘accord obtenu lors du Sommet AI de Séoul à travers la Déclaration de Séoul. Les dirigeants de l’Australie, du Canada, de l’Union européenne, de la France, de l’Allemagne, de l »Italie, du Japon, de la République de Corée, de la République de Singapour, du Royaume-Uni et des États-Unis se sont réunis au Sommet sur l’Intelligence Artificielle (IA) ont en effet réaffirmé leur engagement à promouvoir la coopération internationale et le dialogue sur l’IA. À noter que le chancelier Allemand, Olaf Sholz, est aussi un contributeur de l’agenda 2030, tout comme le premier ministre Coréen Han Duck-soo, tandis que la première ministre italienne, Giorgia Meloni, fait partie du réseau des Instituts Aspen, dirigés par le contribteur du FEM, Daniel R. Porterfield.
Dans cette déclaration, les dirigeants ont reconnu l’importance de l’interopérabilité entre les cadres de gouvernance de l’IA, adoptant une approche basée sur les risques pour maximiser les avantages et gérer les risques associés. Ils ont réaffirmé leur soutien à la mise en œuvre du Code de Conduite International du processus de Hiroshima pour les organisations développant des Systèmes d’IA Avancée. En outre, ils ont noté les engagements pris pour la sécurité des systèmes d’IA de pointe.
La Déclaration de Séoul affirme soutenir les efforts en cours pour créer ou étendre des instituts de sécurité de l’IA, des programmes de recherche et d’autres institutions pertinentes. Les dirigeants encouragent la coopération en matière de recherche sur la sécurité et le partage des meilleures pratiques par le biais de réseaux entre ces organisations.
Ils ont également souligné l’importance de promouvoir des applications pratiques de l’IA pour faire avancer les Objectifs de Développement Durable 2030 des Nations Unies, qui s’inspirent du programme Vision 2030 du Forum économique mondial.
La Déclaration de Séoul préconise des cadres de politique et de gouvernance, incluant des approches basées sur les risques, pour favoriser des écosystèmes d’IA sûrs, innovants et inclusifs. Ces cadres doivent faciliter un cycle vertueux entre la créativité humaine et le développement et l’utilisation de l’IA, promouvoir la diversité socio-culturelle, linguistique et de genre, et encourager un développement technologique et infrastructurel durable tout au long du cycle de vie des systèmes d’IA.
La Déclaration de Séoul vise à renforcer la coopération internationale sur la gouvernance de l’IA par l’engagement avec d’autres initiatives internationales, y compris celles des Nations Unies, du G7, du G20, de l’Organisation de Coopération et de Développement Économiques (OCDE), du Conseil de l’Europe et du Partenariat Mondial sur l’IA (GPAI).
Les dirigeants ont reconnu la valeur des dialogues des Sommets sur l’IA comme forum de haut niveau pour avancer les discussions sur la gouvernance de l’IA et ont exprimé leur anticipation pour le prochain Sommet d’Action sur l’IA qui se tiendra en France.