Le ministère de la Défense publie des lignes directrices sur l’éthique de l’IA pour les entrepreneurs en technologie

Recevez des mises à jour en temps réel directement sur votre appareil, abonnez-vous maintenant.

Le but des directives est de s’assurer que les entrepreneurs technologiques respectent les principes éthiques existants du DoD pour l’IA, explique Goodman. Le DoD a annoncé ces principes l’année dernière, à la suite d’une étude de deux ans commandée par le Defense Innovation Board, un groupe consultatif de chercheurs en technologie et d’hommes d’affaires de premier plan mis en place en 2016 pour apporter l’étincelle de la Silicon Valley à l’armée américaine. Le conseil d’administration a été présidé par l’ancien PDG de Google Eric Schmidt jusqu’en septembre 2020, et ses membres actuels comprennent Daniela Rus, directrice du laboratoire d’informatique et d’intelligence artificielle du MIT.

Pourtant, certains critiques se demandent si le travail promet une réforme significative.

Au cours de l’étude, le conseil d’administration a consulté un éventail d’experts, y compris des critiques virulents de l’utilisation militaire de l’IA, tels que des membres de la Campagne pour les robots tueurs et Meredith Whittaker, une ancienne chercheuse de Google qui a aidé à organiser les manifestations du projet Maven.

Whittaker, qui est maintenant directeur de faculté au New York Universitys AI Now Institute, n’était pas disponible pour commenter. Mais selon Courtney Holsworth, porte-parole de l’institut, elle a assisté à une réunion, au cours de laquelle elle a discuté avec des membres seniors du conseil d’administration, dont Schmidt, de la direction qu’il prenait. Elle n’a jamais été consultée de manière significative, dit Holsworth. Affirmer qu’elle l’était pourrait être interprété comme une forme de lavage d’éthique, dans lequel la présence de voix dissidentes pendant une petite partie d’un long processus est utilisée pour prétendre qu’un résultat donné bénéficie d’une large adhésion des parties prenantes concernées.

Si le DoD n’a pas une large adhésion, ses directives peuvent-elles quand même aider à instaurer la confiance ? Il y aura des gens qui ne seront jamais satisfaits par aucun ensemble de directives éthiques que le DoD produit parce qu’ils trouvent l’idée paradoxale, dit Goodman. Il est important d’être réaliste quant à ce que les directives peuvent et ne peuvent pas faire.

Par exemple, les directives ne disent rien sur l’utilisation d’armes létales autonomes, une technologie qui, selon certains militants, devrait être interdite. Mais Goodman souligne que les réglementations régissant une telle technologie sont décidées plus haut dans la chaîne. L’objectif des lignes directrices est de faciliter la création d’une IA conforme à ces réglementations. Et une partie de ce processus consiste à expliciter toutes les préoccupations des développeurs tiers. Une application valable de ces directives consiste à décider de ne pas poursuivre un système particulier, explique Jared Dunnmon du DIU, qui les a co-écrits. Vous pouvez décider que ce n’est pas une bonne idée.

www.actusduweb.com
Suivez Actusduweb sur Google News


Recevez des mises à jour en temps réel directement sur votre appareil, abonnez-vous maintenant.

commentaires

Ce site utilise des cookies pour améliorer votre expérience. Nous supposerons que cela vous convient, mais vous pouvez vous désinscrire si vous le souhaitez. J'accepte Lire la suite