Le G7 va créer un groupe de travail pour définir une utilisation "responsable" de l'intelligence artificielle
Les discussions devront notamment porter sur la définition de moyens pour contrer «la manipulation d'informations» et la «désinformation» via ces outils.
Les dirigeants du G7 ont annoncé samedi la constitution d'un futur «groupe de travail» sur l'intelligence artificielle (IA), pour mener des discussions sur une «utilisation responsable» de ces outils et sur les risques qu'ils présentent, dont la «désinformation». «Nous chargeons les ministres concernés d'établir le processus d'Hiroshima sur l'IA, par l'intermédiaire d'un groupe de travail bâti en coopération avec des organisations internationales, en vue de discussions sur l'IA générative d'ici la fin de l'année», selon le communiqué du G7, réuni de vendredi à dimanche dans cette ville japonaise.
À l’instar de ChatGPT, le plus connu d'entre eux actuellement, les logiciels d'IA générative (capables de produire du code informatique, du texte, des images, du son, de la vidéo...) sont en pleine expansion dans le monde, tout en suscitant de profondes inquiétudes dans de nombreux secteurs. Les discussions du groupe du travail du G7 sur le sujet pourront ainsi porter sur la «gouvernance, la protection des droits de propriété intellectuelle» et l'«utilisation responsable» de ces nouvelles technologies, mais aussi sur les moyens de contrer «la manipulation d'informations» et la «désinformation» via ces outils.
«Nous nous engageons à faire progresser les approches multipartites en vue de l'élaboration de normes pour l'IA, dans le respect de cadres juridiquement contraignants», a ajouté le G7. «Nous reconnaissons l'importance des procédures qui favorisent la transparence, l'ouverture, les processus équitables, l'impartialité, le respect de la vie privée et l'inclusion afin de promouvoir une IA responsable», ont encore insisté les dirigeants de ce groupe des principales démocraties industrialisées (États-Unis, Japon, Allemagne, France, Royaume-Uni, Italie et Canada).
Source: Le Figaro