L’IA et l’apprentissage automatique ont leur propre débat sur le problème du chariot

  • Les machines autonomes et la prise de décision peuvent conduire à des erreurs potentiellement fatales.
  • Les décès dus à des erreurs robotiques produisent des dilemmes moraux, un peu comme « le problème du chariot ».
  • Il existe un cas où de nombreuses vies pourraient être sauvées si la société adoptait l’apprentissage automatique et s’engageait à déployer les technologies robotiques de manière responsable.

Les progrès de la robotique signifient que les véhicules autonomes, les robots industriels et les robots médicaux seront plus capables, indépendants et omniprésents au cours des 20 prochaines années. À terme, ces machines autonomes pourraient commettre des erreurs de décision qui entraîneraient des centaines de milliers de morts, ce qui pourrait être évité si les humains étaient au courant.

Un tel avenir est raisonnablement effrayant, mais plus de vies seraient sauvées que perdues si la société adoptait les technologies robotiques de manière responsable.

Le processus d’apprentissage automatique

Les robots ne sont pas programmés par les humains pour imiter la prise de décision humaine ; ils apprennent à partir de grands ensembles de données pour effectuer des tâches telles que reconnaître un feu rouge à l’aide de formules mathématiques complexes induites à partir de données. Ce processus d’apprentissage automatique nécessite beaucoup plus de données que les humains n’en ont besoin. Cependant, une fois formés, les robots surpasseraient les humains dans n’importe quelle tâche donnée et l’IA et la robotique ont considérablement amélioré leurs performances au cours des cinq dernières années grâce à l’apprentissage automatique.

Nous pouvons prendre la conduite autonome comme exemple, bien que les théories suivantes s’appliquent aux soins de santé, à la fabrication et à d’autres secteurs qui s’automatisent rapidement. Un conducteur humain chevronné peut avoir quelques centaines de milliers de kilomètres d’expérience de conduite au cours de sa vie, mais Waymo, la société de voitures autonomes de Google, a parcouru plus de 2,3 millions de kilomètres parcourus en 2021 seulement. Ses technologies d’intelligence artificielle apprennent de chaque voiture qu’elle déploie à la fois ; ces voitures ne se fatiguent jamais et n’oublient jamais les leçons.

Lorsque Tesla a déployé pour la première fois sa fonction d’invocation intelligente permettant à ses voitures de quitter une place de parking et de contourner les obstacles sans leur propriétaire, de nombreux utilisateurs se sont plaints des mauvaises performances. Mais en quelques semaines, Tesla a collecté des données auprès des premiers utilisateurs et a recyclé leurs modèles d’apprentissage automatique. En conséquence, les performances de l’invocation intelligente se sont considérablement améliorées et sont devenues un différenciateur clé pour Tesla.

Robots sauveteurs autonomes

Avec de plus en plus de données à partir desquelles apprendre, l’IA s’améliore rapidement, devenant plus précise, adaptative et sûre. Au fur et à mesure que le nombre de robots devient une utilisation quotidienne courante, leurs applications augmenteront également, signalant une stratégie de déploiement par étapes pour la robotique fonctionnelle. La conduite autonome passera de la pratique à la pratique, aux yeux fermés, à l’esprit libre et éventuellement à l’absence de volant.

Un bon exemple est WeRide en Chine. La société de véhicules autonomes a déployé des robots-bus et des nettoyeurs de rue dans plusieurs villes de Chine. Ils opèrent actuellement dans des environnements plus contraints que les robots-taxis, offrant une sécurité considérablement améliorée par rapport aux opérateurs humains. Pourtant, ces véhicules contraints rassemblent une énorme quantité de données, les libérant finalement de ces limitations.

Tesla fabrique des voitures autonomes dans lesquelles l'apprentissage automatique joue un rôle essentiel.

Tesla fabrique des voitures autonomes dans lesquelles l’apprentissage automatique joue un rôle essentiel.

Image : Unsplash/Alex Zahn

Au fur et à mesure que les robots passeront du simple au complexe, davantage de données seront collectées pour améliorer les performances et la sécurité. Par exemple, en réduisant l’erreur humaine (la cause la plus fréquente d’accidents de la route), les véhicules autonomes pourraient prévenir 47 000 accidents graves et sauver 3 900 vies rien qu’au Royaume-Uni au cours de la prochaine décennie. RAND Corporation a découvert que les véhicules audiovisuels sauveront des vies même s’ils ne sont que 10 % plus sûrs que les humains.

Un dilemme moral

Il existe encore des préoccupations majeures concernant le déploiement robotique de masse, y compris l’objection morale à la perte de toute vie humaine en raison d’une erreur de la machine. Le problème du chariot, le dilemme éthique où un spectateur peut sauver cinq vies d’un chariot voyou en le détournant pour tuer une seule personne illustre pourquoi prendre des décisions sur qui vit et meurt est intrinsèquement des jugements moraux, de sorte qu’ils ne peuvent pas être relégués à des machines insensibles.

Ce dilemme moral est exacerbé parce que les perceptions des robots et des humains diffèrent, ce qui entraîne différents types d’erreurs. Par exemple, les robots ont des réflexes fulgurants avec une attention sans faille, mais peuvent mal identifier les dangers, comme lorsqu’une voiture autonome Uber a pris un piéton traînant un vélo sur la route pour être une voiture, s’attendant à ce qu’elle se déplace plus vite qu’elle ne l’était.

La disparité entre les erreurs humaines et les erreurs de la machine rend plus difficile l’acceptation par le public des décès de robots, surtout si chacun suscite la même réaction médiatique que le décès de 2018 à Phoenix. Si les médias condamnent de manière disproportionnée chaque mort induite par un robot avec des titres accablants, cela a le potentiel de détruire la confiance dans les systèmes autonomes, malgré le potentiel des technologies pour sauver des millions de vies.

Lorsque des conducteurs humains causent des décès, ils font face à un jugement et à des conséquences en vertu de la loi. Mais la boîte noire de l’IA ne peut pas expliquer sa prise de décision en termes humainement compréhensibles ou juridiquement et moralement justifiables à un juge et au public.

Un autre problème est la responsabilité. Dans l’affaire Phoenix, le conducteur de secours humain a été accusé d’homicide négligeable. Mais y a-t-il un cas pour que le constructeur automobile, le fournisseur d’algorithmes d’IA ou l’ingénieur qui a écrit l’algorithme soit responsable et responsable ? Ce n’est que lorsque la responsabilité est claire qu’un écosystème peut être construit autour d’elle.

Le problème du chariot à l’ère de l’IA et de l’apprentissage automatique

Parce que de nombreuses vies pourraient être sauvées, il y a un argument pour lancer des technologies robotiques une fois prouvées légèrement meilleures que les gens. Ainsi, toutes les opportunités doivent être saisies pour lancer des outils robotiques qui assistent les humains avant que les robots ne reçoivent plus d’autonomie. Ensuite, leur déploiement doit se faire dans des environnements contraints avant d’être disponible plus largement. Cela permettra de collecter davantage de données, d’améliorer les performances robotiques et de minimiser le nombre de vies perdues.

Compte tenu des objections probables, nous devons travailler à communiquer collectivement la douleur à court terme et le gain à long terme impliqué. Cela nous permettra de travailler à un déploiement responsable et réfléchi de la robotique afin que ce processus d’adoption apporte un plus grand bien à l’humanité.

www.actusduweb.com
Suivez Actusduweb sur Google News


Ce site utilise des cookies pour améliorer votre expérience. Nous supposerons que cela vous convient, mais vous pouvez vous désinscrire si vous le souhaitez. J'accepte Lire la suite