Représentants du gouvernement : la détection des menaces par l’IA a toujours besoin d’êtres humains

L’intelligence artificielle offre d’énormes avantages pour la détection des cybermenaces, mais la technologie ne peut pas faire le travail seule.

C’était le message principal lors d’une session au Sommet sur la cybersécurité Ai4 2022 mettant en vedette deux professionnels de la cybersécurité du gouvernement – Garfield Jones, chef associé de la technologie stratégique pour la Cybersecurity and Infrastructure Security Agency (CISA), et Peter Gallinari, responsable de la confidentialité des données pour l’État. du Tennessee. Le duo a discuté de la promesse de la détection des menaces par l’IA et a répondu à des questions sur ce qu’ils considéraient comme l’avenir de cette technologie, les défis potentiels et la manière dont les humains s’intégreront dans le tableau.

Jones a clairement indiqué au début du panel que chaque système de cybersécurité mettant en œuvre l’IA nécessitera toujours une implication humaine.

« Mon point de vue à ce sujet est que l’IA a définitivement un avenir dans la détection et la réponse aux menaces », a déclaré Jones. « Je dois mettre en garde avec cela, nous aurons toujours besoin des humains pour faire partie de cela. Au fur et à mesure que nous évoluons ces outils, et [they] commencer à apprendre et à fonctionner plus rapidement pour la détection et la réponse, un humain sera certainement nécessaire dans la boucle.

« Avec l’évolution rapide de la dynamique de la menace, l’IA est vraiment devenue plus répandue. La capacité et les ressources informatiques sont définitivement là pour collecter les données, former les données, recycler les données, recycler l’algorithme dans les données pour nous fournir avec une solution solide lorsque vous recherchez le meilleur plan d’action pour la détection actuelle. »

Gallinari a noté que si l’IA peut être et est déjà utilisée pour la détection et la réponse rapides aux menaces, l’une de ses meilleures caractéristiques est sa capacité à exécuter des tests pratiques sur les systèmes de cybersécurité.

« La meilleure chose à aborder tout de suite est la rapidité avec laquelle détecter [and] à quelle vitesse pouvons-nous résoudre un problème et voir s’il y a des problèmes en aval », a déclaré Gallinari. « Cela vous donne également la possibilité à l’IA de se faire passer pour un pirate informatique, ce qui est vraiment agréable. [AI models] peut prétendre être un hacker pour voir ce qu’il y a dans l’état d’esprit d’un hacker simplement en profilant les données, et ils pourraient obtenir une meilleure [incident response] rendre compte de ce qu’ils ont pu voir entrer et de ce qui sort. »

Jones a déclaré que l’IA dépend fortement des informations fournies par l’utilisateur et est ensuite capable de prendre les données et d’identifier les réponses les plus efficaces à une menace donnée.

« Une fois qu’il a appris les menaces, il est en mesure de vous donner la meilleure réponse et de dire aux analystes: » C’est la meilleure réponse pour ce type de menace «  », a déclaré Jones. « Avec l’apprentissage automatique, cela vous donnera la meilleure probabilité quant à la réponse qui aidera à atténuer cette menace. »

Les deux intervenants ont toutefois souligné que les données transmises à l’IA peuvent souvent créer des problèmes. Gallinari, par exemple, a souligné le problème des « données empoisonnées ».

« [AI] utilise des données, beaucoup de données, provenant de différentes sources », a déclaré Gallinari. « Vous devez penser aux problèmes de sécurité liés à l’utilisation de l’IA du point de vue de la confidentialité des données. Pensez aux voitures autonomes. L’IA indique à la voiture où aller, comment aller et quand s’arrêter. Si ces données ont été empoisonnées ou compromises, cette voiture ne s’arrêtera pas. Il renversera quelqu’un. Vous devez réfléchir à ce que vous faites avec ces données, à quel point ces données sont-elles pures, qui contrôle ces données, qu’est-ce qui les entoure ? »

Alors qu’il voit les risques, Gallinari a également discuté des grands avantages et de l’efficacité de détection des menaces qui accompagnent l’IA.

« Nous constatons que les choses changent chaque jour, non pas à l’heure, mais à la minute. Ils sont touchés par plus de 600 événements malveillants par minute, en moyenne – qui pourrait gérer cela ? » dit Gallinari. « Nous n’obtiendrons jamais les informations dont nous avons besoin assez rapidement si l’IA et l’apprentissage automatique n’étaient pas des composants de l’environnement.

« Donc, je pense que cela va jouer un grand rôle dans le roulement en douceur de pouvoir distribuer des informations significatives tant qu’il s’agit d’informations correctes, puis d’utiliser les bonnes entrées et les bonnes sorties qui sortent. Je pense que tout le monde en profite, et à En fin de compte, nous pouvons réagir plus rapidement avant que cela ne corrompe le reste de notre environnement. »

Jones a expliqué comment l’IA est déjà utilisée pour renforcer la cybersécurité au CISA, en particulier en termes de contrôle d’accès et d’authentification au sein d’un réseau de confiance zéro.

« Pour nous, il s’agit essentiellement de suivre et de contrôler chaque demande d’accès, si vous n’êtes pas familier avec de nombreux principes de confiance zéro », a déclaré Jones. « Lorsque vous commencez à examiner le comportement et la dynamique du comportement, et où sont les limites, l’IA et l’apprentissage automatique sont vraiment utiles. Cela va donner cette probabilité de savoir si cette personne devrait avoir accès à une partie de ce réseau, si elle a vraiment ont besoin d’un accès en fonction de leur profil.

« Oui, nous allons obtenir des inexactitudes de la part de l’IA, nous allons obtenir ces faux positifs dont j’ai parlé, et nous allons commencer à obtenir des scores et tout le reste comme ça. Mais je pense que zéro confiance et AI, c’est un mariage qui va être ensemble très bientôt. »

Jones a également noté que si l’IA peut être utilisée pour identifier des menaces spécifiques, le monde de la cybersécurité est en constante évolution et les analystes humains ne peuvent pas être complètement retirés de l’équation. Chaque nouveau jour apporte un type de menace différent, et Gallinari et Jones ont déclaré que la détection des menaces par l’IA doit être mise à jour et maintenue par des analystes humains afin qu’elle soit prête à gérer toutes les menaces émergentes.

À la fin du panel, Jones a déclaré que l’IA pourrait être utilisée non seulement pour la détection des menaces et la découverte de logiciels malveillants une fois qu’ils pénètrent dans un réseau, mais également pour prédire quand il est sur le point de frapper.

« Je pense que cela va aller au point où ce n’est pas seulement la détection que nous examinons, mais nous avons aussi l’IA quand, une fois qu’elle en apprendra assez, nous allons arriver à cette partie de prédiction, où c’est une menace prédiction », a-t-il déclaré. « Je pense que c’est là que vous verrez le plus grand avantage. »

www.actusduweb.com
Suivez Actusduweb sur Google News


Ce site utilise des cookies pour améliorer votre expérience. Nous supposerons que cela vous convient, mais vous pouvez vous désinscrire si vous le souhaitez. J'accepte Lire la suite