Voici pourquoi les organisations n’ont pas besoin d’IA pour la cybersécurité – CPO Magazine
Avouons-le, le marché de la cybersécurité est déroutant. Avec des acronymes et un langage technique en constante évolution que seuls ceux qui ont un certain niveau d’expertise peuvent comprendre, le marché, y compris les outils et ressources critiques de cybersécurité, est inaccessible à l’utilisateur moyen. Les fournisseurs qui apposent des étiquettes d’intelligence artificielle (IA) et d’apprentissage automatique (ML) sur leurs produits exacerbent ces barrières à l’entrée et à l’exclusivité pour paraître innovants et suivre le rythme de l’industrie.
Il existe une idée fausse commune selon laquelle le label AI améliore automatiquement une solution de cybersécurité lorsque cela est loin de la vérité. Les organisations n’ont pas besoin d’outils d’IA ou de ML pour améliorer la cybersécurité.
Avantages et inconvénients de l’IA et du ML
Bien que l’IA et le ML puissent être bénéfiques, les petites équipes ne doivent pas supposer qu’elles ont besoin de l’IA pour la détection et la réponse aux menaces ou la sécurité globale.
Dans de nombreux cas, l’IA n’est efficace que pour la détection des menaces ; cela ne résout pas nécessairement les menaces. Mais même la détection des menaces via l’IA peut créer des problèmes : l’IA et le ML sont souvent positionnés pour effectuer la détection d’anomalies, ce qui fait remonter des inconnues à la surface, mais signale également d’autres inconnues qui n’ont pas d’impact sur la sécurité. Pour éviter cela, les équipes de sécurité doivent former le modèle existant en continu, en incorporant une boucle de rétroaction solide dans les données de formation. Cependant, cela nécessite des efforts et des coûts supplémentaires en plus d’enquêter sur la découverte elle-même.
Ce n’est pas la seule façon dont l’IA peut créer plus de travail pour une équipe de sécurité. L’IA et le ML peuvent compléter une équipe d’analystes du centre des opérations de sécurité (SOC), les aidant à passer au crible les faux positifs. Néanmoins, le personnel du SOC doit comprendre la sortie et fournir des commentaires au modèle pour éviter de perdre du temps sur un modèle non formé. Les organisations ont besoin d’une expertise en science des données pour éviter d’examiner les résultats d’un modèle mal formé, ajoutant finalement plus de temps à leur journée.
La cybersécurité a besoin de l’élément humain
L’IA et le ML ne sont pas des armes secrètes qui éliminent le besoin de prise de décision humaine. La prise de décision humaine est sans précédent. Par exemple, la création de règles de détection basées sur les chemins d’attaque, les informations sur les menaces émergentes et les nouvelles vulnérabilités nécessite du contexte, de la recherche et de la créativité. L’IA pourrait écrire des règles mais n’écrirait ces règles que dans le contexte de l’auteur original de l’IA. Être conscient des attaques imminentes via la recherche, les reproduire, déterminer où la détectabilité peut se produire dans la pile et créer des détections et des playbooks est un effort humain unique que l’IA peut prendre en charge, mais pas à elle seule.
De plus, l’IA est non seulement incapable d’échapper à toutes les tactiques offensives contre elle, mais les pirates peuvent également apprendre les faiblesses d’un système alimenté par l’IA. Toutes les implémentations ont des métriques qui les rendent vulnérables aux attaquants qui apprennent les barrières de sécurité par le biais de fuzzing ou d’attaques similaires. Cela pourrait être aussi simple que d’éviter la détection de l’antivirus de nouvelle génération (NGAV) en demandant à une application d’attendre 30 minutes avant d’exécuter la charge utile malveillante réelle, ce qui expire la période d’évaluation du comportement du processus ML du logiciel antivirus.
Assurer la sécurité sans outils alimentés par l’IA
L’IA ne remplace pas l’élément humain dans la cybersécurité. Pour les petites organisations qui ne sont peut-être pas en mesure de capitaliser sur les outils d’IA ou de disposer d’une équipe de sécurité, il est essentiel de tirer parti des outils soutenus par une véritable équipe de support. Travailler avec des experts en sécurité externalisés peut alléger le fardeau des équipes qui manquent de ressources. S’associer à un fournisseur de solutions avec une équipe SecOps pour fournir des conseils supplémentaires peut aider les entreprises à répondre et à prévenir les problèmes futurs.
Les équipes peuvent également compléter avec l’automatisation, par exemple, en utilisant des listes de blocage automatisées. L’automatisation et la documentation/les règles internes d’une organisation sur la manière dont cette automatisation est appliquée constituent une première étape importante pour la plupart des entreprises. Les équipes qui ont documenté comment elles ont l’intention de répondre aux problèmes de sécurité ou opérationnels, et qui peuvent utiliser les données pour ces problèmes, vont dans la bonne direction.
Il existe quelques moyens supplémentaires pour les petites équipes informatiques ou de sécurité d’assurer la sécurité, notamment :
- Utiliser les pots de miel à leur avantage : les pots de miel sont un moyen peu coûteux d’attirer les attaquants et de détecter les menaces réelles, telles que les attaques RDP (Remote Desktop Protocol).
- Tirer parti des fonctionnalités de sécurité existantes : utilisez les fonctionnalités de sécurité incluses avec les outils que l’organisation utilise déjà, par exemple, l’authentification multifacteur (MFA), la protection contre le phishing et les alertes dans Microsoft 365.
- Pour en revenir à l’essentiel : les attaquants n’ont qu’un certain nombre de façons d’infiltrer un environnement, donc en s’assurant qu’une organisation a une bonne hygiène de sécurité, par exemple, pas de ports ouverts exposés à Internet, en activant MFA et en ayant un moyen de surveiller le comportement dans l’environnement, ils peuvent empêcher la majorité des attaques.
Voir au-delà du battage médiatique
L’IA n’est généralement accessible qu’aux grandes entreprises dotées d’équipes SOC et est trop coûteuse et prend trop de temps pour les petites organisations disposant de moins de ressources et de moins de budget pour soutenir la mise en œuvre de tels outils. L’IA est non seulement trop coûteuse mais, dans la plupart des cas, inutile pour les petites équipes qui doivent combattre d’autres incendies au sein de l’infrastructure.