Les petites mains d’Amazon utilisent l’IA pour des tâches censément réservées aux humains

June 16, 2023
409 views

“Du bon boulot”, ironise TechCrunch à propos de la “boucle bouclée” par les petites mains de la plateforme Amazon Mechanical Turk (MTurk) : selon des chercheurs de l’École polytechnique de Lausanne (EPFL), “près de la moitié” des employés ont recours à l’intelligence artificielle “pour effectuer des tâches qui étaient spécifiquement réservées aux humains parce que l’IA n’en était pas capable”.

Créée en 2005, la plateforme collaborative d’Amazon a été conçue sur le principe d’une division de “tâches simples en un nombre indéfini de microtâches secondaires qui ne prennent que quelques secondes et ne rapportent que quelques centimes”, mais qu’une machine ne peut pas faire, rappelle le magazine américain de la tech. Les “turkeurs” en “accomplissent des milliers et gagnent ainsi un salaire modeste mais sûr”. Jeff Bezos, le patron d’Amazon, parlait d’“intelligence artificielle artificielle”.

Le “Turc mécanique d’Amazon” empruntait son nom à un fameux “automate joueur d’échecs” qu’un humain manipulait pour tromper son monde. En un effet “désopilant” mais “inévitable” de l’innovation, juge TechCrunch, les microtravailleurs d’Amazon se révèlent plus automates que prévu. Les chercheurs de l’EPFL leur ont demandé d’écrire des résumés d’articles médicaux puis les ont passés au crible de différents détecteurs d’IA et d’autres méthodes repérant des copier-coller. Selon leurs résultats (qui n’ont pas encore été validés par des pairs), “33 % à 46 %” d’entre eux ont “utilisé des LLM [large language model, ‘grand modèle de langage’] pour accomplir leur tâche”.

La crise imminente de l’entraînement des IA

Ce n’est pas si surprenant, étant donné qu’un “certain niveau d’automatisation a probablement existé dans le turking dès le début”, rappelle TechCrunch. MTurk n’est pas vraiment réputé pour ses procédures de contrôle, ajoute le site américain.

L’étude remet en cause “la valeur de Mechanical Turk” tout en faisant le jour sur “un autre front dans la crise imminente de ‘l’entraînement des IA sur des données générées par des IA’”. Pour les auteurs de l’étude, ces résultats sont “un avant-goût”, qui devrait pousser les chercheurs comme les plateformes à “s’assurer que les données humaines restent humaines”.

Source: Courrier international