Il disait que l’IA avait une âme, il s’exprime à nouveau un an après

May 01, 2023
393 views

Blake Lemoine, l’ex-ingénieur de Google qui disait que l’IA avait une âme, est sorti du silence et a accepté une interview avec le média américain Futurism. Dans celle-ci, il a pu partager son point de vue sur la situation maintenant que les outils conversationnels comme ChatGPT, Microsoft Bing et Google Bard sont devenus grand public. Licencié pour ses propos, il travaillait depuis plusieurs mois sur LaMDA, le nom de code d’un nouvel outil conversationnel basé sur une intelligence artificielle chez Google.

En parallèle à sa découverte de la sensibilité des réponses de la machine, son travail consistait à répertorier les propos biaisés et en dehors de la politique de Google sur LaMDA, notamment en matière de morale et d’éthique. Une bonne partie de ses découvertes furent présentées dans les pages du Washington Post, avant d’être assez largement critiquées par la communauté scientifique, ne partageant pas ses propos alarmistes sur la sensibilité de la machine.

Malgré la controverse, sa parole reste aujourd’hui très écoutée alors que l’ingénieur a passé des années chez Google et qu’il a connu, en coulisse, l’évolution du développement des intelligences artificielles. Dans sa nouvelle interview, il en profitait notamment pour expliquer que ce que le grand public découvrait aujourd’hui n’était qu’une version des outils conversationnels développés il y a des années, et que le futur était bien plus poussé encore.

“Rien n’est sorti ces 12 derniers mois”

Blake Lemoine a dit que “rien n’est sorti au cours des 12 derniers mois que je n’ai vu en interne chez Google”. Comprenez par là que sur l’année écoulée, toute annonce, nouvel outil et nouvelle technologie lancée auprès du grand public existait déjà en interne chez Google, et au même niveau de profondeur et de précision. “La seule chose qui a changé en deux ans, c’est l’adoption du public”, expliquait-il. “Il y a un vrai temps de latence entre ce que le public découvre et la technologie, la stratégie, la préparation de la sortie”.

L’autre grand sujet de conversation s’attardait sur la course entre Google et OpenAI pour sortir en premier un outil conversationnel. Google a perdu la course, le monde entier découvrait l’IA grand public par la voie de ChatGPT, mais selon Blake Lemoine, cela est un petit peu à cause de lui.

“Bard aurait pu sortir à l’automne 2022. Il serait donc sorti au même moment que ChatGPT, voire un petit peu avant. Ensuite, en partie à cause des problèmes de sécurité que j’ai soulevés, ils l’ont repoussé”, expliquait-il, après avoir expliqué que “Bard, qui ne s’appelait pas Bard à l’époque, était déjà bien avancé à la mi-2021, et évaluait ses possibilités de lancement”.

En conclusion, OpenAI n’aurait pas changé la trajectoire de Google, “c’est un récit médiatique”, s’exclamait-il. On se souvient pourtant qu’à son lancement, Bard était loin de proposer une version aussi complète qu’OpenAI à ses bêta-testeurs, et que Google avait même lancé un “code rouge” à la sortie de ChatGPT.

L’ombre d’une technologie “bien plus avancée”

Maintenant qu’il a quitté Google, l’ex-ingénieur Blake Lemoine se montre plus ouvert pour évoquer ce qu’il a vu en coulisse au sujet de l’intelligence artificielle. Et selon lui, pendant tout ce temps où Google, OpenAI et les autres acteurs du milieu ont lancé leur version grand public des robots conversationnels basés sur l’IA, des versions plus sophistiquées encore étaient en développement. “Google a une technologie beaucoup plus avancée qu’ils n’ont pas encore rendue publique”, répondait-il dans son interview.

Cela posera problème à terme. Sur la question de l’éthique, l’intelligence artificielle continuera d’être un problème de sécurité pour certains utilisateurs en raison de la possibilité de la machine à servir les besoins des humains, notamment psychologiques. “ll est prévisible que les gens se tournent vers ces systèmes pour obtenir de l’aide avec divers types de facteurs de stress psychologiques. Malheureusement, ces systèmes ne sont pas conçus pour bien les gérer”, prévenait-il. Il finissait par alerter : “il est prévisible que quelqu’un se tue après une conversation avec une IA”.

Source: Presse-citron