L’effarante hypocrisie des géants de la tech face à la régulation de l’intelligence artificielle
Un sourire sur les lèvres, Sam Altman a dû rentrer très satisfait de son escapade de Washington. On imagine le directeur d’OpenAI, éditeur de ChatGPT, taper dans les mains de ses collaborateurs de retour à San Francisco. Mission accomplie, sans doute au-delà de ses espérances, après avoir passé mardi soir trois heures devant une commission parlementaire. Non seulement Sam Altman a charmé les sénateurs. Mais en plus, il s’est posé comme le noble défenseur d’une régulation de l’intelligence artificielle (IA). Un sommet d’hypocrisie, à notre sens.
La partie a été beaucoup trop facile pour le directeur d’OpenAI. On a été loin, très loin des interrogatoires musclés de directeurs d’autres géants de la tech, questionnés ces dernières années sur les effets nocifs des réseaux sociaux ou sur des fuites de données. Non, Sam Altman a pu tranquillement présenter les avantages et inconvénients de l’IA et une nouvelle fois appeler à sa régulation. Petits extraits: «Si cette technologie tourne mal, elle peut tourner très mal. Et nous voulons nous exprimer à ce sujet», «Nous voulons travailler avec le gouvernement pour éviter que cela ne se produise», «L’intervention des gouvernements pour réguler l’IA va être cruciale pour limiter les risques» ou encore «Mes pires craintes sont que nous causions des dommages importants au monde.»
Plusieurs objectifs
Avec de tels propos convenus, Sam Altman poursuit plusieurs objectifs. D’abord, amadouer le législateur, montrer qu’il est conscient des risques de l’IA et assurer le monde entier de sa bonne volonté. Ensuite, le directeur d’OpenAi vise sans doute un double but à plus long terme. Si, d’ici quelques jours, semaines ou mois, un incident majeur (cyberattaque colossale, fausse nouvelle à effet dévastateur, etc.) dû à l’utilisation de ses services, intervient, il aura beau jeu d’avoir averti des risques. Un moyen aussi de tenter de prévenir toute amende – qui peuvent être lourdes aux Etats-Unis – pour d’éventuels manquements à des lois actuelles.
Car pour des lois ou règlements futurs, on demande à voir aux Etats-Unis. Il y a bien sûr l’affrontement permanent entre Républicains et Démocrates, qui entrave toute avancée législative. Il y a aussi la peur, à Washington, qu’une régulation de l’IA affaiblisse ses champions nationaux de la tech, face à l’émergence d’acteurs significatifs ailleurs sur la planète. «Si l’industrie américaine ralentit, la Chine ou quelqu’un d’autre peut progresser plus vite», a d’ailleurs glissé malicieusement Sam Altman mardi.
Pompiers pyromanes
Reconnaissons que le directeur d’OpenAI a élaboré des propositions: la création d’une agence fédérale qui pourrait accorder des licences pour créer des modèles d’IA dépassant certaines capacités, un certain seuil de capacités, l’édiction de normes de sécurité pour les modèles d’IA très évolué, assorti de tests indépendants, ainsi que des audits réalisés par des experts externes. Des idées louables, mais qui se heurteront à tous les problèmes cités précédemment. Et on peut y ajouter un obstacle supplémentaire: on devine qu’OpenAI, Google ou Microsoft feront tout pour présenter leurs services basés sur l’AI comme inoffensifs, tout en refusant d’ouvrir leurs algorithmes à des experts externes.
Sam Altman, tout comme Sundar Pichai, directeur de Google et Satya Nadella, patron de Microsoft, appelle à une régulation. Mais tous, un peu comme des pompiers pyromanes, continuent à développer à toute allure leurs systèmes d’IA. Il est évident que de nouvelles fonctions, de nouveaux services et de nouvelles offres commerciales seront lancés prochainement par ces sociétés, lancées dans une concurrence effrénée entre elles, mais aussi face à des petites sociétés qui tentent de se profiler sur ces marchés gigantesques.
Elon Musk, extrême
On avait vu Elon Musk cosigner une lettre appelant à une pause de six mois dans le développement de l’IA… tout en créant en parallèle sa propre société spécialisée dans l’IA. Sam Altman & co, appelant à réguler tout en développant de nouvelles IA, font preuve d’une hypocrisie comparable. Ce double discours avait été récemment mis en avant par le magazine Time, qui avait révélé les efforts importants de Google et Microsoft pour tenter de saper les projets européens de réglementer l’IA. L’objectif de ces sociétés, face à une très hypothétique législation américaine, et future réglementation européenne, est que leur IA dite générative, utilisée par le grand public, ne soit quasiment pas régulée.
Notons enfin un dernier point, qui montre comment OpenAI a – pour le moment en tout cas – la partie si facile. Mardi, il ne lui a pas été demandé pourquoi ChatGPT a été lancé en novembre 2022 sans aucun garde-fou pour le public, ni comment les données ont été récoltées pour créer ce service…
Il ne s’agit évidemment pas, à notre sens, d’interdire tout développement de l’IA, qui possède par ailleurs tant de côtés positifs et enthousiasmants. Mais simplement d’exiger, de la part des créateurs de ces systèmes, un minimum d’honnêteté face aux politiciens et face au grand public. L’IA est un sujet trop important pour qu’il soit entouré d’une telle hypocrisie.
Notre suivi en continu: Fil spécial intelligence artificielle: Les nouveaux usages des modèles de langage
Source: Le Temps