Les pirates pourraient rendre l’IA dangereuse plus sûre

Photo d'archive montrant une équipe du Centre national d'intégration de la cybersécurité et des communications (NCCIC) se préparant à un exercice de défense contre le piratage.

Photo d’archive montrant une équipe du Centre national d’intégration de la cybersécurité et des communications (NCCIC) se préparant à un exercice de défense contre le piratage.
photo: J. Scott Applewhite (PA)

Un nouveau type de communauté est nécessaire pour signaler les déploiements dangereux d’intelligence artificielle, affirme un forum politique publié aujourd’hui dans Science. Cette communauté mondiale, composée de pirates informatiques, de modélisateurs de menaces, d’auditeurs et de toute personne ayant un œil attentif sur les vulnérabilités logicielles, mettrait à l’épreuve les nouveaux produits et services basés sur l’IA. L’examen minutieux de ces tiers aiderait en fin de compte le public à évaluer la fiabilité des développeurs d’IA, écrivent les auteurs, tout en améliorant les produits et services et en réduisant les dommages causés par une IA mal programmée, contraire à l’éthique ou biaisée.

Un tel appel à l’action est nécessaire, soutiennent les auteurs, en raison de la méfiance croissante entre le public et les développeurs de logiciels qui créent l’IA, et parce que les stratégies actuelles pour identifier et signaler les cas nuisibles d’IA sont inadéquates.

À l’heure actuelle, une grande partie de nos connaissances sur les dommages causés par l’IA provient de chercheurs universitaires et de journalistes d’investigation, qui ont un accès limité aux systèmes d’IA sur lesquels ils enquêtent et vivent souvent des relations antagonistes avec les développeurs dont ils découvrent les dommages, selon le forum sur les politiques, co- rédigé par Shahar Avin du Cambridges Center for the Study of Existential Risk.

Sans aucun doute, notre confiance dans l’IA et dans les développeurs d’IA s’érode, et elle s’érode rapidement. Nous le voyons dans notre approche évolutive des médias sociaux, avec des préoccupations légitimes sur la façon dont les algorithmes répandre de fausses nouvelles et cibler enfants. Nous le voyons dans nos protestations contre les algorithmes dangereusement biaisés utilisés dans les tribunaux, la médecine, la police et le recrutement comme un algorithme qui donne soutien financier insuffisant aux patients noirs ou à un logiciel de police prédictif qui cibles de manière disproportionnée quartiers à faible revenu, noirs et latinos. Nous le voyons dans nos inquiétudes concernant les véhicules autonomes, avec des rapports d’accidents mortels impliquant des Tesla et Uber. Et nous le voyons dans nos peurs sur drones autonomes armés. Le contrecoup du public qui en résulte et la crise de confiance croissante sont tout à fait compréhensibles.

Dans un communiqué de presse, Haydn Belfield, chercheur au Center for the Study of Existential Risk et co-auteur du forum sur les politiques, a déclaré que la plupart des développeurs d’IA veulent agir de manière responsable et sûre, mais on ne sait pas quelles mesures concrètes ils peuvent prendre jusqu’à ce que à présent. Le nouveau forum politique, qui s’étend sur un rapport de l’année dernière, comble certaines de ces lacunes, a déclaré Belfield.

Pour renforcer la confiance, cette équipe demande aux sociétés de développement d’employer le piratage de l’équipe rouge, d’exécuter des pistes d’audit et d’offrir des primes de parti pris, dans lesquelles des récompenses financières sont accordées aux personnes qui détectent des défauts ou des problèmes éthiques (Twitter est actuellement employant cette stratégie pour repérer les biais dans les algorithmes de recadrage d’images). Idéalement, ces mesures seraient menées avant le déploiement, selon le rapport.

Red teaming, ou white-hat hacking, est un terme emprunté à la cybersécurité. C’est lorsque des pirates éthiques sont recrutés pour attaquer délibérément l’IA nouvellement développée afin de trouver des exploits ou des moyens de subvertir les systèmes à des fins néfastes. Les équipes rouges exposeront les faiblesses et les dommages potentiels, puis les signaleront aux développeurs. Il en va de même pour les résultats des audits, qui seraient effectués par des organismes externes de confiance. L’audit dans ce domaine, c’est lorsqu’un auditeur accède à des informations restreintes et à son tour témoigne de la véracité des affirmations faites ou publie des informations de manière anonymisée ou agrégée, écrivent les auteurs.

Les équipes rouges internes aux entreprises de développement d’IA ne sont pas suffisantes, affirment les auteurs, car le vrai pouvoir vient d’équipes tierces externes qui peuvent examiner indépendamment et librement la nouvelle IA. De plus, toutes les entreprises d’IA, en particulier les start-up, ne peuvent pas se permettre ce type d’assurance qualité, et c’est là qu’une communauté internationale de hackers éthiques peut aider, selon le forum politique.

Informés des problèmes potentiels, les développeurs d’IA déploieraient alors un correctif, au moins en théorie. J’ai demandé à Avin pourquoi les conclusions du partage d’incidents, comme lui et ses collègues l’appellent, et l’audit devraient obliger les développeurs d’IA à changer leurs habitudes.

Lorsque les chercheurs et les journalistes exposent des systèmes d’IA défectueux et d’autres incidents, cela a, dans le passé, conduit à l’extraction ou à la révision de systèmes. Cela a également conduit à des poursuites judiciaires, a-t-il répondu dans un e-mail. L’audit de l’IA n’a pas encore mûri, mais dans d’autres secteurs, l’échec d’un audit signifie la perte de clients, ainsi que des mesures réglementaires et des amendes potentielles.

Avin a dit qu’il est vrai que, à eux seuls, les mécanismes de partage d’informations ne fournissent pas toujours les incitations nécessaires pour inculquer un comportement digne de confiance, mais ils sont nécessaires pour faire fonctionner la réputation, les systèmes juridiques ou réglementaires et sont souvent une condition préalable à l’émergence de tels systèmes.

Je lui ai également demandé si ces mécanismes proposés sont une excuse pour éviter la réglementation significative de l’industrie de l’IA.

Pas du tout, dit Avin. Nous soutenons tout au long que les mécanismes sont compatibles avec la réglementation gouvernementale et que les réglementations proposées [such as those proposed in the EU] présentent plusieurs des mécanismes que nous demandons, a-t-il expliqué, ajoutant qu’ils souhaitent également envisager des mécanismes qui pourraient fonctionner pour promouvoir un comportement digne de confiance avant d’obtenir une réglementation. L’érosion de la confiance est une préoccupation actuelle et la réglementation peut être lente à se développer.

Pour faire avancer les choses, Avin dit que les bonnes prochaines étapes incluraient la normalisation de la manière dont les problèmes d’IA sont enregistrés, les investissements dans la recherche et le développement, la mise en place d’incitations financières et la préparation des institutions d’audit. Mais la première étape, a-t-il dit, consiste à créer une connaissance commune entre la société civile, les gouvernements et les acteurs dignes de confiance au sein de l’industrie, qu’ils peuvent et doivent travailler ensemble pour éviter que la confiance dans l’ensemble du domaine ne soit érodée par les actions d’organisations non dignes de confiance.

Les recommandations formulées dans ce forum politique sont sensées et attendues depuis longtemps, mais le secteur commercial doit adhérer pour que ces idées fonctionnent. Il faudra un village pour garder les développeurs d’IA dans un village de contrôle qui comprendra nécessairement un public scrutateur, des médias vigilants, des institutions gouvernementales responsables et, comme le suggère le forum politique, une armée de pirates informatiques et d’autres chiens de garde tiers. Comme l’ont appris les événements actuels, les développeurs d’IA, en l’absence de freins et de contrepoids, feront tout ce qu’ils voudront et à nos frais.

Suite: Les pirates informatiques ont déjà commencé à armer l’intelligence artificielle.

.

www.actusduweb.com
Suivez Actusduweb sur Google News


Ce site utilise des cookies pour améliorer votre expérience. Nous supposerons que cela vous convient, mais vous pouvez vous désinscrire si vous le souhaitez. J'accepte Lire la suite