L’IA peut-elle aider les assureurs à détecter les risques de cybersécurité ?
Le climat actuel a conduit davantage de particuliers, d’entreprises et d’entités gouvernementales à vraiment examiner ce qu’ils peuvent faire pour se protéger de la menace très réelle de cyber-attaques. Aujourd’hui plus que jamais, l’intelligence artificielle joue un rôle plus important dans la détection et l’atténuation des cyber-risques.
Pourquoi cybersécurité et assurance vont-elles de pair ?
Risque et protection vont de pair. Plus il y a de données collectées sur quelqu’un ou quelque chose, plus elles peuvent devenir précieuses pour quelqu’un qui veut les utiliser à des fins malveillantes. Le cyber-risque est un nouveau type de risque qui est apparu depuis 5 ans et qui augmente d’année en année. Les attaques elles-mêmes peuvent survenir avec peu ou pas d’avertissement, et la tâche de s’en remettre est souvent longue et coûteuse.
Les attaques de ransomware, les attaques par déni de service distribué et les attaques de phishing ne sont que quelques-unes des nombreuses façons dont les attaquants peuvent accéder aux réseaux domestiques et d’entreprise, voler des mots de passe et des informations bancaires et aller jusqu’à nettoyer les ordinateurs dans les bureaux, sans rien laisser plus qu’un presse-papier à chaque bureau. Ces attaques sont en fait si fréquentes que 23 % des propriétaires de petites entreprises ont subi une attaque au cours des 12 derniers mois selon une enquête réalisée par Hiscox.
Voici quelques exemples de la manière dont l’IA peut être utilisée pour lutter contre des types spécifiques de cybermenaces.
1. Empoisonnement des données
L’empoisonnement des données peut être vu littéralement pour ce qu’il est, prendre des données puis les utiliser avec une mauvaise intention. Cela se fait lorsque des échantillons de données utilisés pour la formation d’algorithmes sont manipulés pour avoir une sortie ou une prédiction hostile qui est déclenchée par des entrées spécifiques. Ceci tout en restant précis pour toutes les autres entrées.
L’empoisonnement des données qui rend les systèmes hostiles est effectué avant l’étape de formation du modèle. Zelros a une éthique Norme de rapport, où ils collectent une signature de jeu de données sur les étapes successives de la modélisation. Il s’agit d’une vérification nécessaire qui doit être effectuée et qui aide à prouver par la suite que les données n’ont pas été falsifiées ou autrement manipulées. Cette norme peut être adaptée par d’autres entreprises comme l’une des meilleures pratiques lors de l’utilisation responsable de l’IA.
2. Confidentialité
Les entités, qu’il s’agisse du gouvernement, des forces de l’ordre ou même des réseaux personnels qui ont des caractéristiques spécifiques dans leur ensemble de données qui sont utilisées pour former leur algorithme, leur identité peut être compromise. Pour éviter qu’une ou plusieurs identités ne soient compromises dans le cadre des données de formation et, par conséquent, n’ajoutent un risque à leur vie privée, les organisations peuvent utiliser des techniques uniques telles que l’apprentissage fédéré. Cela revient à former des modèles individuels localement à la source et à les fédérer à une échelle plus mondiale, pour sécuriser localement les données personnelles. En général, il est bon de noter que la détection d’échantillons spécifiques de valeurs aberrantes et leur exclusion de la formation est une bonne pratique recommandée à garder à portée de main.
3. Primes biaisées
Comme pour les anciennes générations de logiciels, le partage des détails d’un algorithme d’IA peut devenir plus problématique, surtout s’il est exploité avec une intention malveillante de nuire, car il fournit des informations sur la structure du modèle et son fonctionnement. Une contre-mesure, introduite par Forrester comme tendance pour 2022, est les primes de biais, qui aident les sociétés de logiciels d’IA à renforcer et à améliorer la robustesse de leur algorithme.
Au moins 5 grandes entreprises introduiront des primes biaisées en 2022.
– Selon Forrester : Guide des prévisions nord-américaines 2022
Les primes de biais deviennent l’arme et l’armure de défense incontournables pour une IA éthique et responsable, car elles peuvent aider à garantir que l’algorithme en place est aussi impartial et aussi fiable que possible. Tout cela à cause des nombreuses paires d’yeux et des différents processus de pensée qui l’examinent tout au long de la campagne.
4. Comportement humain
Le comportement humain peut être parmi les plus difficiles et les plus faciles à prévoir. Lorsqu’il s’agit de manipulation de données ou d’IA, notre première pensée pourrait être une activité malveillante. Cependant, les organisations doivent s’arrêter pour réfléchir aux données personnelles qui sont volontairement partagées par des personnes, même si ce n’est pas sciemment.
Notre principale faiblesse en matière de cybersécurité est notre capacité à propager la connaissance de notre identité et de nos activités en quelques secondes à des milliers de personnes. Intelligence artificielle ou encore des outils basiques capables de collecter des données ont donné à ce nouveau comportement des conséquences qui peuvent s’avérer critiques en matière de cybersécurité.
Regardons un vieil exemple pour référence, avec données de géolocalisation qui est ouvertement partagée sur les réseaux sociaux : à partir de 2018, elle montre comment des bribes de données individuelles peuvent être recueillies pour fournir des informations puissantes sur l’identité et/ou le comportement d’une personne individuelle.
Ces informations peuvent ensuite être utilisées par les systèmes d’IA pour catégoriser les cibles de clients potentiels et fournir des résultats ou des recommandations très spécifiques. Une référence plus récente qui peut être examinée est le documentaire The Social Dilemma sur le monde de l’économie de l’attention qui est construit sur cette collecte de données personnelles à partir de quantités monumentales d’informations. Pour diminuer l’impact et les conséquences subséquentes de notre comportement humain, rien ne vaut la culture et la conscience scientifique. L’acculturation de la Data Science est essentielle pour plus de sécurité de nos données privées mais aussi pour l’éthique qui est ancrée dans les modèles d’IA, comme détaillé dans le premier sujet de ce article.
Les outils d’IA peuvent être trop puissants pour notre propre bien : lors de l’alimentation de flux de données sur les clients, un modèle d’apprentissage automatique peut en apprendre beaucoup plus que nous ne le souhaiterions réellement. Par exemple, même lorsque le sexe n’est pas un point de données explicite dans les données client, l’algorithme peut en fait apprendre à le déduire via des fonctions de proxy. Tout cela alors qu’un Humain ne le pouvait pas, du moins avec cette quantité de données, en un temps aussi limité.Pour cette raison, l’analyse et la surveillance du modèle ML sont cruciales.
Pour mieux nous équiper pour anticiper le comportement des algorithmes et des modèles, et pour aider à prévenir la discrimination par procuration, un élément clé est la diversité. Cette clé peut être et est souvent négligée lors de l’examen des solutions d’IA. Le fait d’avoir plusieurs examinateurs qui peuvent apporter leur contribution à travers leurs antécédents culturels, socio-économiques et éthiques individuels peut réduire les risques de biais dans les programmes d’IA. Les organisations peuvent également demander des audits algorithmiques par des tiers, qui utilisent leur expertise et la diversité de leurs effectifs si l’équipe elle-même manque de diversité pour accomplir ces tâches elle-même.
A propos de l’auteur: Antoine de Langlois est Zelros‘ responsable de la science des données pour l’IA responsable. Antoine a construit une carrière dans la gouvernance informatique, les données et la sécurité et maintenant l’IA éthique. Avant Zelros, il a occupé plusieurs postes technologiques chez Total Energies et Canon Communications. Il est aujourd’hui membre d’Impact AI et de HUB France AI. Antoine est diplômé de l’Université CentraleSupelec, France.