4 façons de gérer la prise de décision de l’IA dans la cybersécurité

L’ampleur des cyberattaques auxquelles les organisations sont confrontées aujourd’hui signifie que les systèmes autonomes deviennent un élément essentiel de la cybersécurité. Cela nous oblige à nous interroger sur la relation idéale entre les équipes de sécurité humaine et l’intelligence artificielle (IA) : quel niveau de confiance accorder à un programme d’IA, et à quel moment les équipes de sécurité interviennent-elles dans sa prise de décision ?

Avec les systèmes autonomes en cybersécurité, les opérateurs humains élèvent la barre de leur prise de décision. Au lieu de prendre eux-mêmes un nombre de plus en plus ingérable de « microdécisions », ils établissent désormais les contraintes et les guides auxquels les machines d’IA doivent adhérer lorsqu’elles prennent des millions de microdécisions granulaires à grande échelle. En conséquence, les humains ne gèrent plus au niveau micro mais au niveau macro : leurs tâches quotidiennes deviennent de plus haut niveau et plus stratégiques, et ils ne sont sollicités que pour les demandes d’entrée ou d’action les plus essentielles.

Mais à quoi ressemblera la relation entre les humains et l’IA ? Ci-dessous, nous décortiquons quatre scénarios décrites par la Harvard Business Review qui exposent les possibilités d’interactions variées entre les humains et les machines, et explorent à quoi cela ressemblera dans le domaine cybernétique.

Humain dans la boucle (HitL)

Dans ce scénario, l’humain prend en effet la décision et la machine ne fournit que des recommandations d’actions, ainsi que le contexte et les preuves à l’appui de ces décisions pour réduire le délai de signification et le délai d’action. pour cet opérateur humain.

Dans cette configuration, l’équipe de sécurité humaine a une autonomie complète sur la façon dont la machine agit et n’agit pas.

Pour que cette approche soit efficace à long terme, des ressources humaines suffisantes sont nécessaires. Souvent, cela dépasserait de loin ce qui est réaliste pour une organisation. Pourtant, pour les organisations qui se familiarisent avec la technologie, cette étape représente une étape importante dans l’établissement de la confiance dans le moteur de réponse autonome de l’IA.

Humain dans la boucle pour les exceptions (HitLfE)

La plupart des décisions sont prises de manière autonome dans ce modèle, et l’humain ne gère que les exceptions, où l’IA demande un jugement ou une contribution de l’humain avant de pouvoir prendre la décision.

Les humains contrôlent la logique pour déterminer quelles exceptions sont signalées pour examen, et avec des systèmes numériques de plus en plus diversifiés et sur mesure, différents niveaux d’autonomie peuvent être définis pour différents besoins et cas d’utilisation.

Cela signifie que la majorité des événements seront déclenchés de manière autonome et immédiate par la réponse autonome alimentée par l’IA, mais l’organisation reste « au courant » pour les cas particuliers, avec une flexibilité quant au moment et à l’endroit où ces cas particuliers surviennent. Ils peuvent intervenir, si nécessaire, mais voudront rester prudents en annulant ou en refusant l’action recommandée par l’IA sans un examen approfondi.

Humain sur la boucle (HotL)

Dans ce cas, la machine prend toutes les actions et l’opérateur humain peut examiner les résultats de ces actions pour comprendre le contexte autour de ces actions. Dans le cas d’un incident de sécurité émergent, cet arrangement permet à l’IA de contenir une attaque, tout en indiquant à un opérateur humain qu’un appareil ou un compte a besoin d’assistance, et c’est là qu’il est amené à remédier à l’incident. Un travail médico-légal supplémentaire peut être nécessaire, et si la compromission a eu lieu à plusieurs endroits, l’IA peut intensifier ou élargir sa réponse.

Pour beaucoup, cela représente le dispositif de sécurité optimal. Compte tenu de la complexité des données et de l’ampleur des décisions à prendre, il n’est tout simplement pas pratique d’avoir l’humain dans la boucle (HitL) pour chaque événement et chaque vulnérabilité potentielle.

Avec cet arrangement, les humains conservent un contrôle total sur quand, où et à quel niveau le système agit, mais lorsque des événements se produisent, ces millions de microdécisions sont laissées à la machine.

Humain hors de la boucle (HootL)

Dans ce modèle, la machine prend toutes les décisions et le processus d’amélioration est aussi une boucle fermée automatisée. Il en résulte une boucle de rétroaction auto-réparatrice et auto-améliorante où chaque composant de l’IA alimente et améliore le suivant, élevant l’état de sécurité optimal.

Cela représente l’approche ultime en matière de sécurité. Il est peu probable que les opérateurs de sécurité humaine veuillent un jour que les systèmes autonomes soient une « boîte noire » fonctionnant de manière entièrement indépendante, sans que les équipes de sécurité aient même la possibilité d’avoir un aperçu des actions qu’elles prennent, ou pourquoi. Même si un humain est convaincu qu’il n’aura jamais à intervenir dans le système, il voudra toujours une surveillance. Par conséquent, à mesure que les systèmes autonomes s’améliorent avec le temps, il sera important de mettre l’accent sur la transparence. Cela a conduit à un récent développement de l’intelligence artificielle explicable (XAI) qui utilise le traitement du langage naturel pour expliquer à un opérateur humain, dans un langage courant de base, pourquoi la machine a pris l’action qu’elle a.

Ces quatre modèles ont tous leurs propres cas d’utilisation uniques, donc quelle que soit la maturité de la sécurité d’une entreprise, le CISO et l’équipe de sécurité peuvent se sentir en confiance en tirant parti des recommandations d’un système, sachant qu’il fait ces recommandations et décisions basées sur une micro-analyse qui va bien au-delà du échelle qu’un individu ou une équipe peut attendre d’un humain dans les heures dont il dispose. De cette façon, les organisations de tout type et de toute taille, avec n’importe quel cas d’utilisation ou besoin commercial, pourront tirer parti de la prise de décision de l’IA d’une manière qui leur convient, tout en détectant et en répondant de manière autonome aux cyberattaques et en prévenant les perturbations qu’elles provoquent.

A propos de l’auteur

Dan Fein

En tant que vice-président des produits chez Darktrace, Dan Fein a aidé les clients à acquérir rapidement une compréhension complète et granulaire de la suite de produits de Darktrace. Dan se concentre particulièrement sur la messagerie Darktrace, en veillant à ce qu’elle soit déployée efficacement dans des environnements numériques complexes, et travaille en étroite collaboration avec les équipes de développement, de marketing, de vente et techniques. Dan est titulaire d’un baccalauréat en informatique de l’Université de New York.

www.actusduweb.com
Suivez Actusduweb sur Google News


Ce site utilise des cookies pour améliorer votre expérience. Nous supposerons que cela vous convient, mais vous pouvez vous désinscrire si vous le souhaitez. J'accepte Lire la suite