Grand entretien Comment l'intelligence artificielle est-elle en train de révolutionner la médecine ?

July 06, 2023
448 views

L'IA devient peu à peu un outil incontournable pour les médecins, selon le professeur Jean-Emmanuel Bibault, cancérologue et chercheur spécialisé dans ces technologies.

L'arrivée de l'intelligence artificielle (IA) dans le milieu de la médecine fascine autant qu'elle effraie, tant le champ des possibilités semble infini et encore difficile à cerner. Le professeur Jean-Emmanuel Bibault le concède : "Nous ne connaissons pas encore le dixième des possibilités qu'offre l'IA dans le secteur de la santé." Des potentialités qui vont être scrutées de près, jeudi 6 et vendredi 7 juillet, lors d'un sommet organisé par l'Union internationale des télécommunications (UIT) à Genève (Suisse).

Dans son petit bureau de l'hôpital européen Georges-Pompidou, à Paris, trône l'affiche du film favori de ce cancérologue, 2001, L'Odyssée de l'espace, qui lui a inspiré le titre de son ouvrage, 2041 : l'Odyssée de la médecine (éd. des Equateurs, janvier 2023). Dans l'œuvre de Stanley Kubrick, HAL 9000, l'intelligence artificielle qui guide le vaisseau spatial, tue les humains qui la contrôlent. Dans son livre destiné au grand public, celui qui est aussi un chercheur spécialisé en IA explore toutes les possibilités que pourra offrir cette nouvelle technologie dans un futur proche. Il pose également les questions éthiques qui doivent accompagner tous ces progrès. Des questionnements plus urgents qu'on ne le croit, car l'IA est déjà utilisée dans de nombreux services hospitaliers.

Franceinfo : Comment les médecins utilisent-ils aujourd'hui l'intelligence artificielle ? Qu'apporte-t-elle à la médecine ?

Jean-Emmanuel Bibault : Actuellement, l'intelligence artificielle peut accomplir de nombreuses tâches, notamment en radiothérapie. Par exemple, avant d'organiser des traitements par rayons [pour traiter une tumeur ou un cancer], il faut programmer la machine pour qu'elle vise au bon endroit. Pour ce faire, nous effectuons un scanner du patient et à partir de celui-ci, nous dessinons en trois dimensions la tumeur à détruire, ainsi que les organes qui sont autour, pour les épargner le plus possible.

Cette étape, que nous appelons le contourage sur ordinateur, pouvait prendre deux à trois heures, voire une demi-journée dans les cas complexes. Désormais, nous disposons de logiciels qui reposent sur du deep learning, de l'apprentissage des réseaux neuronaux profonds, qui sont capables de faire ce contourage en deux ou trois minutes. Pour l'instant, ces résultats sont toujours vérifiés par un humain, car certains ne sont pas encore parfaits. Mais dans les années qui viennent, ces imperfections vont diminuer et nous aurons de moins en moins de corrections à apporter.

Combien ces technologies coûtent-elles ?

C'est extrêmement variable d'une solution à l'autre. Pour l'heure, contrairement aux machines classiques, le prix de l'IA dépend du nombre de patients qu'elle traite. Généralement, il est de l'ordre de plusieurs dizaines de milliers d'euros. Cela peut paraître beaucoup, mais en fait, à l'échelle des coûts de fonctionnement d'un service de radiothérapie, ça ne l'est pas vraiment. Par exemple, un scanner vaut plusieurs millions d'euros, sans compter le contrat de maintenance annuelle, puisque toutes ces machines sont vérifiées très régulièrement. C'est aussi l'une des raisons pour lesquelles les centres travaillent avec l'intelligence artificielle.

On comprend bien l'intérêt que l'IA présente pour le médecin et l'hôpital. Et pour le patient ?

Pour le patient, l'IA apporte une qualité homogène dans tous les endroits où elle est développée. Si je reprends l'exemple du contourage, grâce à l'IA, peu importe le lieu où le patient y a recours, le résultat sera toujours le même. De plus, l'IA assurera une meilleure dosimétrie [mesure de la dose de rayonnements ionisants que peut recevoir un objet ou une personne] car elle est plus précise que les humains. Ce qui entraînera potentiellement moins d'effets secondaires et une meilleure efficacité sur le cancer.

Cela rejoint d'ailleurs ce que vous soulignez dans votre livre, c'est-à-dire que ces résultats, toujours plus précis, vont forcer les médecins à monter en compétences pour vérifier que l'IA ne se trompe pas...

C'est ce qu'il faut espérer et favoriser. Toutefois, il est nécessaire d'avoir en tête qu'en se reposant beaucoup sur l'IA pour effectuer ces contourages, les jeunes médecins en perdront l'habitude au fil du temps. Ainsi, de génération en génération, cette compétence pourrait se perdre, si nous n'y sommes pas attentifs. Il ne faudrait pas que le recours unique aux IA conduise à ce que plus personne ne puisse s'assurer qu'elles le font bien. C'est comme lorsqu'on apprend le calcul élémentaire à l'école primaire et qu'on oublie comment faire une addition ou une soustraction dès qu'on a une calculatrice.

A vous entendre, on a l'impression que l'IA va plus vite que nous et qu'elle sait déjà accomplir un nombre de tâches très important...

Oui, mais il faut se rappeler que l'IA reste une technologie développée par un être humain. Pour l'instant, une IA ne peut pas elle-même poser des questions ou solliciter un diagnostic, même si cela commence à venir.

"Certains algorithmes savent faire des choses que les humains ne savent pas, et ne sauront jamais, faire, comme prédire votre risque à dix ou quinze ans de développer une maladie. Ou, en cas de maladie, de prédire les chances de guérison à cinq, dix ou quinze ans. Ces choses-là, même les meilleurs experts ne savent pas le faire." Jean-Emmanuel Bibault à franceinfo

Est-ce que ces prédictions sont déjà utilisées ou sont-elles encore au stade d'essai clinique ?

Pour l'instant, ces algorithmes existent pour de la recherche translationnelle [qui réunit des médecins et des chercheurs pour développer des applications médicales, ou, dans le sens inverse, qui peut orienter les scientifiques à partir d'une observation clinique]. Ça va être difficile de faire sortir ces modèles de l'ordinateur et de les évaluer. Parce que si, par exemple, je mets au point un algorithme qui prédit le risque de faire un diabète dans dix ans et que je veux voir s'il fonctionne, je vais devoir lancer tout un protocole, puis attendre que ce laps de temps soit écoulé. Ainsi, dans le meilleur des cas, nous n'aurions pas de réponse avant dix ans.

Au-delà de ces difficultés de validation, imaginons que cette IA fonctionne et puisse faire ce genre de prédictions avec quasi 100% de certitude. Est-ce que cette prédiction est actionnable d'un point de vue médical ? Si je sais que j'ai un risque très élevé de développer un cancer du côlon dans dix ans, vais-je pouvoir utiliser cette information pour réduire ce risque et adapter mon comportement ? Ou alors est-ce que, quoi que je fasse, ce risque continuera d'exister ? Ce n'est pas évident que cette information soit bonne à avoir, parce qu'elle peut avoir beaucoup d'impacts psychologiques sur la qualité de vie.

Il y a également une deuxième question, plus vertigineuse. Pour la poser, je fais le parallèle avec le film Minority Report, dans lequel un département de police arrête les gens avant même qu'ils ne commettent un crime. En médecine, c'est la même logique. Si on parvient, un jour, à prédire une maladie dix ans en amont et qu'elle ne se déclare pas, vous aurez vécu pendant dix ans avec cette épée de Damoclès au-dessus de la tête. Est-ce que l'algorithme s'est trompé ? Ou alors est-ce que vous avez adapté votre comportement pour réduire le risque de contracter la maladie ? Personne ne pourra jamais répondre à ces questions.

Dans votre livre, vous interrogez également l'entraînement des IA. Vous citez le cas d'une application qui a été mise au point en dermatologie pour détecter une anomalie grâce à des photos prises par le patient lui-même (PDF). L'étude montre qu'elle est globalement plus efficace que les dermatologues, mais qu'en revanche, elle ne l'est pas sur les peaux noires...

Cet exemple permet d'illustrer le fait qu'il faut être très vigilant aux biais qu'on introduit nous-mêmes dans les IA, par les données ou les méthodes algorithmiques qu'on utilise. Parfois, on se rend compte de ces biais, comme c'est le cas dans cette expérience. Mais le risque existe aussi que dans d'autres cas, on ne s'en rende même pas compte et qu'on utilise des outils qui donnent de mauvais résultats.

Se pose également la question de la cybersécurité. Imaginons qu'une personnalité de premier plan se fasse opérer demain par une IA entièrement automatisée. Comment s'assurer qu'elle ne soit pas piratée à des fins malveillantes ?

Quand on aborde cette question, beaucoup pensent que c'est de la science-fiction. Mais ce n'est pas le cas. Il y a une étude publiée dans la revue Science sur "les attaques adversariales" [ou contradictoires], qui consistent à générer des images totalement artificielles qui, à l'œil nu, n'ont aucune caractéristique particulière. Mais lorsqu'on les fait analyser par une intelligence artificielle, ces images génèrent un résultat faux. Je donne souvent l'exemple d'une image de panda, que l'IA reconnaît comme telle. J'ai créé une image, qui, d'apparence, ne revêt aucun caractère particulier pour l'œil humain. Si je l'ajoute à l'image du panda, l'IA ne reconnaît plus un panda mais un gibbon.

Cette technique peut être reproduite en radiologie, sur des scanners ou des IRM. Imaginons qu'un jour, on ne se base plus que sur des systèmes qui interprètent des images automatiquement à très haut débit, avec 50 patients analysés toutes les heures, et que plus personne ne surveille ce que fait l'IA. Dans ce cas, en théorie, vous pourriez fausser tous les résultats avec le même type de calque que pour l'image du panda, en orchestrant une cyberattaque. Aux Etats-Unis par exemple, où les enjeux financiers sont encore plus importants qu'en France et en Europe dans le domaine de la santé, un groupe de hackers pourrait se faire rembourser des centaines de soins coûtant des millions de dollars avec de faux résultats ou pour des gens qui n'existent pas. Cela peut paraître complètement dingo, mais ça ne l'est pas du tout.

Est-ce que l'intelligence artificielle va remplacer les médecins ?

Effectivement, le risque est qu'on nous dise qu'il y a besoin de moins de médecins car nous pouvons faire davantage de choses en moins de temps. Mais c'est une grosse erreur de penser ainsi, car je suis certain qu'il va falloir continuer à recruter des médecins et en former, malgré l'utilisation des IA. Ces technologies doivent uniquement permettre aux praticiens de monter en compétences, pas d'être remplacés. Il faut que l'IA nous libère du temps médical et qu'au lieu de comptabiliser quinze minutes pour une consultation, nous puissions y accorder trois quarts d'heure, voire plus, et revoir les patients plus souvent.

Pensez-vous que l'IA ne soit qu'un effet de mode ?

Je ne pense pas. A mon sens, la seule raison pour laquelle l'IA pourrait faire pschitt, c'est s'il y avait une crise économique mondiale, une récession très dure, ou une guerre qui conduirait à un arrêt du progrès technique ou technologique parce qu'on déciderait de réutiliser les ressources pour d'autres choses primordiales, plus essentielles.

Source: franceinfo