Intelligence artificielle : ne pas se tromper de régulation
Réguler l’intelligence artificielle (IA) n’est plus une option. C’est une nécessité. Le spectaculaire succès du robot conversationnel ChatGPT, lancé fin 2022 par la société OpenAI, a fait découvrir au grand public un échantillon du champ des possibles qu’offre cette technologie… pour le meilleur et pour le pire. L’un des principaux mérites de l’initiative a été d’accélérer la prise de conscience sur l’impératif de fixer un cadre au développement de l’IA. La question est maintenant de savoir quelle forme doit prendre cette régulation et comment celle-ci peut s’appliquer au niveau mondial.
L’initiative du premier ministre britannique, Rishi Sunak, jeudi 8 juin, d’organiser dans les prochains mois un premier sommet mondial consacré à l’IA au Royaume-Uni, montre que le sujet n’est plus seulement technologique, mais hautement politique. Profitant d’une rencontre avec le président américain, Joe Biden, M. Sunak prend date afin de ne pas se retrouver isolé au moment où, chacun à leur manière, l’Union européenne (UE) et les Etats-Unis manifestent leur volonté d’encadrer l’IA.
Comme souvent en matière de régulation, Bruxelles a pris de l’avance. Un règlement devrait être adopté par le Parlement européen, dès mercredi 14 juin, avant de faire l’objet de négociations avec le Conseil de l’UE et la Commission européenne pour aboutir à un consensus d’ici quelques mois. L’approche américaine est à ce stade plus limitée en misant sur une démarche de responsabilité des entreprises.
Alors que l’UE et les Etats-Unis tentent d’harmoniser leurs positions au sein du Conseil du commerce et des technologies transatlantiques, les mises en garde sur les dangers de l’IA se multiplient. Après une lettre signée en mars par des chercheurs et des personnalités de la tech appelant à faire une « pause », une pétition, regroupant 350 personnalités du secteur de l’IA, appelait, le 30 mai, à faire du sujet « une priorité mondiale, aux côtés d’autres risques de grande ampleur comme les pandémies ou la guerre nucléaire ». Cette initiative est elle-même la poursuite de l’offensive lancée notamment par OpenAI en faveur de la création d’une nouvelle régulation « mondiale » inspirée de l’Agence internationale de l’énergie atomique (AIEA), qui aurait pour mission de veiller à la sécurité et à la non-prolifération des systèmes d’IA les plus avancés et les plus dangereux.
L’UE sur la bonne voie
Ces risques hypothétiques et lointains ne doivent pas être ignorés. Cependant, la mise en place d’une telle instance s’annonce longue et compliquée sur le plan politique, alors que la Chine ne semble pas disposée à une approche multilatérale sur le sujet. Surtout, cette idée ne doit pas servir de distraction à un travail beaucoup plus immédiat et prosaïque consistant à réguler l’IA telle qu’elle existe aujourd’hui et non telle qu’on l’imagine demain.
De ce point de vue, la voie empruntée par l’UE semble la bonne. Il s’agit d’interdire certains usages, d’en soumettre d’autres à des obligations de transparence sur les données et d’évaluation des risques, notamment de discrimination. Les Européens se soucient également des droits d’auteur attachés aux données utilisées par les logiciels et veulent imposer un label sur les contenus générés par l’IA afin de les identifier.
Notre continent devra aussi intégrer les logiques de souveraineté, de maîtrise de la technologie – notamment grâce à l’open source – et de respect de la diversité des langues. N’attendons pas la création d’une « AIEA de l’IA » censée sauver l’humanité de son autodestruction pour s’attaquer à des sujets beaucoup plus immédiats et brûlants.
Le Monde
Source: Le Monde