Qui est responsable quand l’IA tue ?
Qui est responsable quand l’IA fait du mal à quelqu’un ?
Un jury californien pourrait bientôt devoir trancher. En décembre 2019, une personne conduisant une Tesla avec un système de conduite à intelligence artificielle a tué deux personnes à Gardena dans un accident. Le conducteur de Tesla risque plusieurs années de prison. À la lumière de cet incident et d’autres incidents, la National Highway Transportation Safety Administration (NHTSA) et le National Transportation Safety Board enquêtent sur les accidents de Tesla, et la NHTSA a récemment élargi son enquête pour explorer comment les conducteurs interagissent avec les systèmes Tesla. Sur le front de l’État, la Californie envisage de restreindre l’utilisation des fonctionnalités de conduite autonome de Tesla.
Notre système de responsabilité actuel – notre système pour déterminer la responsabilité et le paiement des blessures – n’est absolument pas préparé à l’IA. Les règles de responsabilité ont été conçues pour une époque où les humains causaient la majorité des erreurs ou des blessures. Ainsi, la plupart des cadres de responsabilité imposent des sanctions au médecin utilisateur final, au conducteur ou à toute autre personne qui a causé une blessure. Mais avec l’IA, des erreurs peuvent se produire sans aucune intervention humaine. Le système de responsabilité doit s’adapter en conséquence. Une mauvaise politique de responsabilité nuira aux patients, aux consommateurs et aux développeurs d’IA.
Le moment est venu de penser à la responsabilité, car l’IA devient omniprésente mais reste sous-réglementée. Déjà, les systèmes basés sur l’IA ont contribué aux blessures. En 2018, un piéton a été tué par un véhicule Uber autonome. Bien que l’erreur du conducteur soit en cause, l’IA n’a pas réussi à détecter le piéton. Récemment, un chatbot de santé mentale basé sur l’IA a encouragé une patiente suicidaire simulée à se suicider. Les algorithmes d’IA ont discriminé les CV des candidates. Et, dans un cas particulièrement dramatique, un algorithme d’IA a mal identifié un suspect dans une agression grave, conduisant à une arrestation par erreur. Pourtant, malgré les faux pas, l’IA promet de révolutionner tous ces domaines.
Il est essentiel de bien définir le paysage de la responsabilité pour libérer le potentiel de l’IA. Des règles incertaines et des litiges potentiellement coûteux décourageront les investissements, le développement et l’adoption des systèmes d’IA. L’adoption plus large de l’IA dans les soins de santé, les véhicules autonomes et dans d’autres industries dépend du cadre qui détermine qui, le cas échéant, finit par être responsable d’une blessure causée par les systèmes d’intelligence artificielle.
L’IA remet en question la responsabilité traditionnelle. Par exemple, comment attribuons-nous la responsabilité lorsqu’un algorithme de «boîte noire» – où l’identité et la pondération des variables changent de manière dynamique afin que personne ne sache ce qui entre dans la prédiction – recommande un traitement qui cause finalement un préjudice ou conduit une voiture imprudemment avant son le conducteur humain peut-il réagir ? Est-ce vraiment la faute du médecin ou du chauffeur ? Est-ce l’entreprise qui a créé la faute de l’IA ? Et à quelle responsabilité tous les autres (systèmes de santé, assureurs, fabricants, régulateurs) devraient-ils faire face s’ils encourageaient l’adoption ? Ce sont des questions sans réponse et essentielles pour établir l’utilisation responsable de l’IA dans les produits de consommation.
Comme toutes les technologies disruptives, l’IA est puissante. Les algorithmes d’IA, s’ils sont correctement créés et testés, peuvent faciliter le diagnostic, les études de marché, l’analyse prédictive et toute application nécessitant l’analyse de grands ensembles de données. Une récente enquête mondiale de McKinsey a montré que déjà plus de la moitié des entreprises dans le monde ont déclaré utiliser l’IA dans leurs opérations de routine.
Pourtant, la responsabilité se concentre trop souvent sur la cible la plus facile : l’utilisateur final qui utilise l’algorithme. Les enquêtes en matière de responsabilité commencent souvent – et se terminent – par le conducteur de la voiture qui s’est écrasée ou par le médecin qui a rendu une décision de traitement erronée.
Certes, si l’utilisateur final utilise à mauvais escient un système d’IA ou ignore ses avertissements, il devrait être tenu responsable. Mais les erreurs d’IA ne sont souvent pas la faute de l’utilisateur final. Qui peut reprocher à un médecin urgentiste un algorithme d’IA qui passe à côté d’un œdème papillaire, un gonflement de la rétine ? L’incapacité d’une IA à détecter la condition pourrait retarder les soins et potentiellement rendre le patient aveugle. Pourtant, l’œdème papillaire est difficile à diagnostiquer sans examen ophtalmologique, car davantage de données cliniques, y compris l’imagerie du cerveau et l’acuité visuelle, sont souvent nécessaires dans le cadre du bilan. Malgré le potentiel révolutionnaire de l’IA dans tous les secteurs, les utilisateurs finaux éviteront d’utiliser l’IA s’ils sont seuls responsables des erreurs potentiellement fatales.
Renverser la responsabilité uniquement sur les concepteurs ou les adopteurs d’IA ne résout pas non plus le problème. Bien sûr, les concepteurs ont créé l’algorithme en question. Mais est-ce que chaque accident de Tesla est la faute de Tesla à résoudre par plus de tests avant le lancement du produit ? En effet, certains algorithmes d’IA s’auto-apprennent en permanence, prenant leurs entrées et les utilisant dynamiquement pour modifier les sorties. Personne ne peut savoir exactement comment un algorithme d’IA est arrivé à une conclusion particulière.
La clé est de s’assurer que toutes les parties prenantes (utilisateurs, développeurs et tous les autres acteurs de la chaîne, du développement du produit à l’utilisation) assument une responsabilité suffisante pour garantir la sécurité et l’efficacité de l’IA, mais pas au point de renoncer à l’IA.
Pour protéger les gens contre une IA défectueuse tout en encourageant l’innovation, nous proposons trois façons de réorganiser les cadres de responsabilité traditionnels.
Premièrement, les assureurs doivent protéger les assurés contre les coûts excessifs d’une action en justice pour une blessure due à l’IA en testant et en validant de nouveaux algorithmes d’IA avant de les utiliser, tout comme les assureurs automobiles comparent et testent les automobiles depuis des années. Un système de sécurité indépendant peut fournir aux parties prenantes de l’IA un système de responsabilité prévisible qui s’adapte aux nouvelles technologies et méthodes.
Deuxièmement, certaines erreurs d’IA devraient être portées devant des tribunaux spéciaux ayant une expertise dans les affaires d’IA. Ces tribunaux spécialisés pourraient développer une expertise dans des technologies ou des problèmes particuliers, tels que le traitement de l’interaction de deux systèmes d’IA (par exemple, deux véhicules autonomes qui s’écrasent l’un contre l’autre). Ces tribunaux spécialisés ne sont pas nouveaux : par exemple, aux États-Unis, des tribunaux spécialisés ont protégé les fabricants de vaccins pour enfants pendant des décennies en statuant sur les blessures liées aux vaccins et en développant une connaissance approfondie du domaine.
Troisièmement, les normes réglementaires des autorités fédérales telles que la Food and Drug Administration (FDA) des États-Unis ou la NHTSA pourraient compenser la responsabilité excessive des développeurs et de certains utilisateurs finaux. Par exemple, la réglementation et la législation fédérales ont remplacé certaines formes de responsabilité pour les dispositifs médicaux ou les pesticides. Les régulateurs devraient juger que certaines IA sont trop risquées pour être introduites sur le marché sans normes de test, de retest ou de validation. Les régulateurs fédéraux devraient se concentrer de manière proactive sur les processus standard de développement de l’IA. Cela permettrait aux organismes de réglementation de rester agiles et de prévenir les blessures liées à l’IA, plutôt que d’y réagir trop tard. En revanche, bien que les agences nationales et locales de protection des consommateurs et de santé ne puissent pas ériger un système réglementaire national, elles pourraient aider à clarifier les normes et les normes de l’industrie dans un domaine particulier.
Entraver l’IA avec un système de responsabilité obsolète serait tragique : les voitures autonomes apporteront la mobilité à de nombreuses personnes qui n’ont pas accès aux transports. Dans les soins de santé, l’IA aidera les médecins à choisir des traitements plus efficaces, à améliorer les résultats pour les patients et même à réduire les coûts dans une industrie connue pour ses dépenses excessives. Des secteurs allant de la finance à la cybersécurité sont à l’aube de révolutions de l’IA qui pourraient profiter à des milliards de personnes dans le monde. Mais ces avantages ne doivent pas être compromis par des algorithmes mal développés. Ainsi, l’IA du XXIe siècle exige un système de responsabilité du XXIe siècle.
Ceci est un article d’opinion et d’analyse, et les opinions exprimées par l’auteur ou les auteurs ne sont pas nécessairement celles de Scientifique américain.