La cybersécurité représentera près d’un quart du marché des logiciels d’IA jusqu’en 2025
D’ici 2025, le marché des logiciels d’intelligence artificielle (IA) passera de 33 milliards de dollars à 64 milliards de dollars en 2021, selon un nouveau rapport. Et la cybersécurité est la catégorie de dépenses en IA qui connaît la croissance la plus rapide, avec une augmentation des dépenses de 22,3 % de taux de croissance annuel composé (TCAC).
C’est selon le « Global AI Software Forecast 2022 » de Forrester Research. « La cybersécurité est la catégorie de logiciels d’IA qui connaît la croissance la plus rapide, avec un accent sur la surveillance en temps réel et la réponse aux attaques », indique le rapport. Les deux catégories suivantes, la gestion des clients et du capital humain (22 %) et l’optimisation des processus, la connaissance et l’intelligence des données (18,3 %), comportent également des éléments de cybersécurité, de sorte que l’impact sur les fabricants d’outils de sécurité pourrait être encore plus important.
Cela correspond à l’accent mis par les entreprises sur leurs logiciels et services améliorés par l’IA. Par exemple, le géant du crédit Visa a révélé qu’il avait dépensé un demi-milliard de dollars en analyse de données et en IA au cours des cinq dernières années. Il utilise ces outils, ainsi que des mesures de cybersécurité conventionnelles, pour maintenir le taux de fraude à ce que Visa appelle des creux historiques malgré la croissance du commerce électronique.
Les organisations peuvent déployer l’IA pour la cybersécurité partout où il y a des actions répétitives et un comportement attendu, y compris la gestion de la surface d’attaque, la détection et la réponse étendues (XDR) et l’analyse du comportement des utilisateurs et des entités (UEBA). Forrester appelle SentinelOne comme un excellent exemple de réussite XDR, soulignant la croissance des revenus de 120 % d’une année sur l’autre au cours de l’exercice 2022. En mars, SentinelOne a ajouté la détection des menaces d’identité et la réponse à sa plateforme lors de l’acquisition d’Attivo Networks.
Un outil d’IA peut apprendre quelle est l’activité normale d’un appareil ou d’un compte particulier, puis signaler quand ce point de terminaison agit en dehors de la norme. Une telle détection automatisée est inestimable, compte tenu de l’impossibilité de disposer d’un personnel suffisant pour que des yeux humains surveillent chaque partie du réseau. Et les chercheurs trouvent des moyens d’appliquer de grands modèles de langage comme GPT-3 à des tâches pratiques, telles que le traçage des réseaux de forums d’exploitation. Pour donner une certaine perspective sur ces développements, Dark Reading a publié un rapport en septembre, « How Machine Learning, AI & Deep Learning Improve Cybersecurity », sur la façon d’évaluer les revendications d’IA d’un fournisseur et de définir ses critères de réussite.
L’un des obstacles au galop de l’IA est le défi de mettre en place un système afin qu’il signale ce que les analystes humains doivent évaluer sans créer de fatigue d’alerte. Une enquête menée plus tôt en 2022 a révélé que près de la moitié (46 %) du personnel de sécurité informatique ont déclaré que leurs systèmes d’IA avaient créé trop d’alertes faussement positives pour qu’ils puissent les traiter. Un optimiste verrait le problème des faux positifs comme une opportunité de croissance, ouvrant cependant un nouveau marché pour les services de réglage fin.
Pour plus d’informations, consultez l’entrée de blog de Forrester Research sur le rapport.