Les créateurs de Chat GPT déclarent forfait : OpenAI n’arrive pas à créer un logiciel capable de distinguer les textes générés par l’IA de ceux des humains

August 01, 2023
445 views

Le lancement de Chat GPT en novembre 2022, le modèle de langage d’IA pouvant générer des textes de type humain et spécialisé dans le dialogue, a secoué le monde. Les gouvernements, des organismes publics de régulation, le secteur académique et scolaire, entre autres, ont exprimé leurs inquiétudes. Mais à l’heure actuelle, cela reste encore un défi de réguler, réglementer et maîtriser l’usage de cette IA.

Un outil pour discerner les textes écrits par des humains des textes générés par Chat GPT : quelle efficacité ?

Fin janvier 2023, OpenAI, la société de recherche en intelligence artificielle américaine créatrice de Chat GPT, a lancé l’outil « OpenAI AI Text Classifier », chargé de distinguer les textes écrits par l’humain, des textes générés par l’IA. « Nous mettons ce premier classificateur à disposition afin d’obtenir des commentaires sur l’utilité d’outils de ce type, et nous espérons partager des méthodes améliorées à l’avenir » avait déclaré un porte-parole d’OpenAI au média TechCrunch au moment de ce lancement.

>> Lire aussi : Jusqu’où peut-on comparer notre cerveau à l’intelligence artificielle ?

Toujours en janvier, le « classeur » ou outil de discernement d’IA était à peine efficace à 26 %. OpenAI défendait que cet outil, accompagné d’autres méthodes, pouvait donner lieu à une meilleure efficacité.

Le mode de fonctionnement d’OpenAI Text Classifier ne permettait pas d’avoir une réponse définitive sur la source du texte, mais se basait sur la probabilité que le texte soit écrit par une IA et donnait dès lors comme réponse : « très improbable », « improbable », « incertain », « possible » ou « probable ».

OpenAI arrête le développement de son outil classeur permettant de distinguer la source des textes

L’un des grands problèmes de cet outil, depuis le début, est qu’il commettait l’erreur d’étiqueter un texte écrit par un humain comme un texte provenant d’une IA. Mais le problème majeur, qui a mis un terme au projet, a été l’impossibilité d’améliorer son taux de précision, celui-ci restant beaucoup trop bas pour donner une quelconque réponse utile.

« Nous nous efforçons d’intégrer le retour d’information et recherchons actuellement des techniques de provenance plus efficaces pour le texte. Nous nous sommes également engagés à développer et à déployer des mécanismes permettant aux utilisateurs de comprendre si le contenu audio ou visuel est généré par l’IA », a déclaré OpenAI.

Pour l’heure, le monde continue de réfléchir sur comment réguler l’intelligence artificielle, que ce soit Chat GPT ou d’autres nouvelles technologies qui sont sorties comme Gemini de Google, et il semblerait que même la société qui a déclenché leur introduction dans la société, n’a pas encore la possibilité de nous donner les outils pour la maîtriser.

>> Regarder aussi : Tesla Bot, remplacera-t-il des ouvriers ?

Source: Science et Vie