Trois bonnes pratiques pour la sécurité de l’IA/ML
Les entreprises, les gouvernements et les établissements universitaires comprennent tous l’immense opportunité que l’intelligence artificielle (IA) et l’apprentissage automatique (ML) offrent à leurs électeurs et augmentent leurs investissements. PwC s’attend à ce que le marché de l’IA atteigne un peu moins de 16 000 milliards de dollars d’ici 2030, soit environ 12 % du PIB mondial. Compte tenu de la taille du marché et de la propriété intellectuelle en cause, on pourrait penser que des investissements appropriés ont été faits pour sécuriser ces actifs. Mais c’est faux.
L’IA et le ML sont devenus le plus grand vecteur d’attaque de cybersécurité. La base de données Adversarial AI Incident Database fournit des milliers d’exemples d’attaques d’IA dans plusieurs secteurs et entreprises, notamment Tesla, Facebook et Microsoft. Pourtant, l’industrie de la cybersécurité est à la traîne des méchants. Il existe peu de protections dédiées à la cybersécurité.
Gartner a mesuré l’ampleur du problème dans son rapport d’octobre 2022, AI in Organizations: Managing AI Risk Leads to Improved AI Results. Parmi les principales conclusions : cette année seulement, 30 % des cyberattaques d’IA auront utilisé l’empoisonnement des données d’entraînement, le vol de modèles d’IA ou des échantillons contradictoires pour attaquer des systèmes alimentés par l’IA. Deux organisations sur cinq auront subi une violation de la sécurité ou de la confidentialité de l’IA, dont une sur quatre étant des attaques contradictoires.
Les avertissements tombent dans l’oreille d’un sourd
Les chiens de garde de l’industrie de la sécurité tirent la sonnette d’alarme depuis des années. Le cadre MITRE 2020 Adversarial Threat Landscape for Artificial-Intelligence Systems (ATLAS) a identifié 12 tactiques (le pourquoi) pour les attaques adverses et plus de 60 types d’attaques spécifiques. Il est important de noter que la recherche Gartner et MITRE était spécifique à l’IA et au ML contradictoires et n’était pas liée à ce qui a généralement reçu le plus d’attention dans cet espace : le biais, la dérive et/ou l’intégrité du modèle. Bien que ces préoccupations restent très réelles, Gartner et MITRE attirent une attention particulière sur les risques de cybersécurité associés à l’IA et au ML.
La disponibilité actuelle de plus de 20 outils d’attaque gratuits, dont Microsofts Counterfit et Metas Augly, ajoute à la portée et à l’ampleur potentielles du cyber-risque pour l’IA et le ML. Ces outils sont au ML ce que Metasploit a été aux serveurs et aux réseaux et tout aussi puissants. Les attaques ML qui ont mis plus d’un mois à se terminer en 2019 prennent 10 à 15 secondes pour se terminer aujourd’hui.
Renforcement de la sécurité AI/ML
L’implication d’un investissement et d’un déploiement continus de l’apprentissage automatique, d’un environnement réglementaire de plus en plus rapide et d’outils d’attaque faciles à utiliser signifie qu’il est maintenant temps de comprendre le risque de l’organisation et de déterminer les étapes nécessaires pour assurer la protection de l’environnement. Le cadre MITRE ATLAS référencé ci-dessus cartographie les techniques que les attaquants utilisent encore aujourd’hui pour aider les organisations à définir des méthodologies de test pour leur pré-version d’IA et de ML.
De plus, le Bureau de la politique scientifique et technologique du gouvernement américain a publié en octobre 2022 les Déclarations des droits de l’IA pour offrir des conseils sur le renforcement de la sécurité de l’IA/ML. Les directives indiquent que les systèmes doivent subir des tests de pré-déploiement, une identification et une atténuation des risques, et une surveillance continue qui démontrent qu’ils sont sûrs et efficaces en fonction de leur utilisation prévue, de l’atténuation des résultats dangereux, y compris ceux au-delà de l’utilisation prévue, et du respect des règles spécifiques au domaine. normes.
Les meilleures pratiques
Voici quelques étapes simples que les entreprises peuvent suivre aujourd’hui pour évaluer le profil de risque de l’organisation :
- Découverte proactive des menaces : enquêtez sur des modèles pré-formés et construits en interne avant le déploiement pour trouver des preuves de falsification, de détournement ou d’abus.
- Évaluez en toute sécurité le comportement du modèle : les modèles sont des logiciels. Si les équipes ne savent pas d’où il vient, ne l’exécutez pas dans l’environnement de l’entreprise. Inspectez soigneusement les modèles, en particulier les modèles pré-formés, à l’intérieur d’une machine virtuelle sécurisée avant de les envisager pour le déploiement.
- Évaluation externe de la sécurité : Comprenez le niveau de risque de l’organisation, corrigez les angles morts et voyez ce que l’équipe pourrait améliorer. Il est logique de mener une évaluation de sécurité externe du pipeline ML, compte tenu du niveau de données sensibles que les modèles ML reçoivent.
À l’approche de 2023, le moment est venu d’évaluer si les investissements dans la confiance zéro, la défense et la profondeur sont sapés par le risque que présentent les modèles de ML non sécurisés. En adoptant une position proactive, les organisations peuvent exploiter plus efficacement le potentiel de l’IA/ML.
Abigail Maines, directrice des revenus, HiddenLayer