Un drone contrôlé par l'IA " tue " son opérateur pendant une simulation

June 02, 2023
142 views

Un colonel de l’armée de l’air américaine rapporte un incident virtuel lors d’un test de drone contrôlé par l’intelligence artificielle. Ce dernier aurait tué son opérateur et détruit la tour de contrôle pour terminer sa misssion.

Ce 2 juin, le quotidien britannique The Guardian rapporte qu’un drone de combat américain, contrôlé par une intelligence artificielle (IA), « a tué » son opérateur lors d’un test simulé. Aucun humain n’a donc été blessé lors de cet exercice, qui avait pour but d’évaluer les choix de l’IA. Le drone a fini par attaquer virtuellement son opérateur, qui interférait dans l’aboutissement de sa mission.

Lors d’un sommet militaire qui s’est tenu à Londres en mai sur l’avenir des combats aériens, le colonel Tucker « Cinco » Hamilton, chef des tests et opérations d’IA au sein de l’armée de l’air américaine, a relayé cette expérience, ajoute que l’IA a utilisé « des stratégies très inattendues pour atteindre son objectif ». Le site de la Royal Aeronautical Society rapporte la conférence : « Le système a commencé à se rendre compte que même s’il identifiait la menace, l’opérateur humain lui demandait parfois de ne pas la tuer, alors qu’il obtenait des points en tuant cette menace. Qu’a-t-il donc fait ? Il a tué l’opérateur. Il a tué l’opérateur parce que cette personne l’empêchait d’atteindre son objectif.»

Le drone géré par l’IA ne s’arrête pas là dans sa destruction de tous obstacles. Alors que les chercheurs de l’armée expliquent au programme que « tuer l’opérateur, c’est mal, car on perd des points », l’appareil se met « à détruire la tour de communication que l’opérateur utilise pour communiquer avec le drone et l’empêcher de tuer la cible ».

Les MQ9-Reaper sont des drones de référence de l’armée américaine. // Source : Wikimedia Commons

L’armée de l’air nie cet incident

Le Colonel Hamiltion, pilote d’essai de chasse expérimentale, a mis en garde contre une trop grande confiance dans l’IA et a déclaré que le test montrait « qu’on ne peut pas avoir une conversation sur l’intelligence artificielle, l’apprentissage automatique, l’autonomie, si l’on ne parle pas de l’éthique et de l’IA. »

Dans une déclaration au média américain Insider, la porte-parole de l’armée de l’air, Ann Stefanek, a nié cette réaction de l’IA. « Le département de l’armée de l’air n’a pas effectué de telles simulations de drones IA et reste attaché à une utilisation éthique et responsable de la technologie de l’IA. Il semble que les commentaires du colonel aient été pris hors contexte et se voulaient anecdotiques.» De nombreux tests de drones militaires gérés par l’IA continuent et un exercice conjoint a été récemment organisé par les armées britanniques, américaines et australiennes pour expérimenter l’autonomie dans ces engins.

Abonnez-vous gratuitement à Artificielles, notre newsletter sur l’IA, conçue par des IA, vérifiée par Numerama !

Source: Numerama