Intelligence artificielle : Les États-Unis et le Royaume-Uni signent un accord “historique”
Michelle Donelan, ministre de la Recherche dans le gouvernement de Rishi Sunak, et Gina Raimondo, la ministre du Commerce américaine, ont signé, lundi 1er avril à Washington, un accord inédit, souligne le Financial Times. “Les deux pays sont les tout premiers du monde à engager une coopération pour tester et évaluer les risques liés aux modèles émergents d’intelligence artificielle (IA).”
Le “premier accord bilatéral sur la sécurité de l’IA” stipule que les deux administrations mettront en commun connaissances techniques, informations et compétences via l’AI Safety Institute britannique et son homologue américain – dont la création a été annoncée mais qui n’est pas encore opérationnel.
“L’IA est la technologie déterminante de notre génération. Ce partenariat va accélérer le travail de nos deux instituts concernant tous les risques, que ce soit pour notre sécurité nationale ou pour la société dans son ensemble”, a déclaré Gina Raimondo.
“Nous devons agir rapidement car la prochaine génération de modèles d’IA pourrait changer complètement la donne et nous ne connaissons pas encore toutes les capacités qu’ils offriront”, a expliqué pour sa part Michelle Donelan.
“Favoriser l’innovation”
Cet accord survient dans le prolongement du premier sommet mondial sur la sécurité de l’IA, organisé en novembre à Bletchley Park par le gouvernement britannique, rappelle Time. Un événement auquel avaient participé Sam Altman, à la tête d’OpenAI, Demis Hassabis, qui dirige Google DeepMind, ou encore le milliardaire Elon Musk, qui a fondé xAI.
Tout indique que Rishi Sunak entend jouer un rôle clé en matière d’évaluation de l’IA, indique le magazine américain. Le Premier ministre britannique a d’ailleurs décidé d’engager quelque 100 millions de livres (117 millions d’euros) pour soutenir l’AI Safety Institute. L’AI Safety Institute (AISI), soutenue par le gouvernement britannique et présidée par l’investisseur et entrepreneur technologique Ian Hogarth, a embauché des chercheurs tels que Geoffrey Irving de Google DeepMind et Chris Summerfield de l’Université d’Oxford pour commencer à tester des modèles d’IA existants et non publiés. Pendant ce temps, le gouvernement Biden envisage de ne financer son équivalent américain qu’à hauteur de 10 millions de dollars (9,3 millions d’euros), “malgré le fait que presque toutes les grandes entreprises d’IA sont installées sur le sol américain”.
En revanche, le Royaume-Uni n’envisage pas de réglementer l’IA dans l’immédiat, a réaffirmé Michelle Donelan. “Nous ne pensons pas qu’il serait judicieux de nous précipiter pour légiférer, nous avons été très clairs à ce sujet. Nous voulons favoriser l’innovation, nous voulons que ce secteur se développe dans notre pays.”
Une stratégie opposée à celle de l’Union européenne, “qui a adopté une loi considérée comme la plus stricte du monde en matière d’utilisation de l’IA”, note le Financial Times. Le quotidien britannique rappelle également que Joe Biden a publié un décret ciblant les modèles d’IA susceptibles de menacer la sécurité nationale.
OpenAI, Google DeepMind, Microsoft et Meta font partie des groupes technologiques qui ont signé des engagements volontaires pour soumettre leurs derniers modèles d’IA générative à l’examen de l’AISI britannique, qui a été créé à la suite du sommet britannique sur la sécurité de l’IA à Bletchley Park.
- Vues : 212