ChatGPT : le patron d'OpenAI menace de quitter l'Europe si la législation communautaire est trop restrictive

May 25, 2023
91 views

Très critique sur la prochaine loi sur l'intelligence artificielle, Sam Altman continue d'avoir des échanges avec les régulateurs européens sur la façon dont son entreprise pourrait s'y conformer.

Du Brésil au Nigeria, de l'Europe à l'Asie, Sam Altman, patron d'OpenAI et créateur de ChatGPT, a parcouru ces derniers jours le monde pour rassurer sur les risques de l'intelligence artificielle et prévenir des projets de régulation trop restrictifs, notamment en Europe.

Si cette tournée illustre la stature de gourou mondial de l'IA acquise par Sam Altman, il doit maintenant répondre aux craintes qu'il provoque : désinformation, manipulation des élections, destruction massive d'emplois, pillage des créateurs, voire menace globale pour l'humanité. Le besoin de répondre se fait urgent car l'Europe et les États-Unis planchent sur une régulation. Les pays du G7 ont d'ailleurs décidé samedi de créer un groupe de travail et, à Bruxelles, le commissaire européen Thierry Breton a suggéré de mettre en place rapidement un pacte sur l'IA.

C'est dans ce contexte tendu que Sam Altman a adressé un ultimatum aux instances communautaires. Bloqué un temps en Italie, et restreint par d'autres pays, le robot conversationnel pourrait subir de plein fouet les normes et la réglementation européenne. Une lourdeur que craint Sam Altman, comme l'indique le magazine Time. En marge d'une table ronde à l'University College de Londres, le patron d'OpenAI a menacé de «cesser ses activités» dans l'Union européenne si son entreprise ne pouvait pas se conformer aux nouvelles règles.

À lire aussiChatGPT cesse d'apprendre à partir des informations fournies par ses abonnés

Si OpenAI va tenter de s'y plier, Sam Altman, qui dialogue avec les régulateurs européens, a «beaucoup» de reproches sur la façon dont la législation était pour l'instant rédigée. Cette dernière pourrait considérer que ChatGPT ou GPT-4 sont des modèles d'intelligence artificielle «à haut risque», les obligeant à accepter des exigences de sécurité supplémentaires. «Soit nous serons en mesure de répondre à ces exigences, soit non (...) Si nous pouvons nous conformer, nous le ferons, et si nous ne pouvons pas, nous cesserons nos activités... Nous essaierons. Mais il y a des limites techniques à ce qui est possible», a-t-il précisé. Indiquant que la loi n'est «pas intrinsèquement imparfaite», Sam Altman a ajouté que «les détails subtils ici comptent vraiment.»

Source: Le Figaro