La cybersécurité rencontre l’IA : augmenter et accélérer les humains

Rejoignez des cadres supérieurs à San Francisco les 11 et 12 juillet pour découvrir comment les dirigeants intègrent et optimisent les investissements en IA pour réussir. Apprendre encore plus


~Puissiez-vous vivre une époque intéressante~

Ayant la bénédiction et la malédiction de travailler dans le domaine de la cybersécurité, on me demande souvent ce que je pense de la façon dont cela recoupe un autre sujet populaire, l’intelligence artificielle (IA). Compte tenu des derniers développements qui font la une des journaux dans les outils d’IA générative, tels que OpenAIs ChatGPT, Microsofts Sydney et des outils de génération d’images comme Dall-E et Midjourney, il n’est pas surprenant que l’IA se soit catapultée dans la prise de conscience du public.

Comme c’est souvent le cas avec de nombreuses technologies nouvelles et passionnantes, l’impact perçu à court terme des derniers développements de l’actualité est probablement surestimé. C’est du moins ma vision de l’immédiat dans le domaine étroit de la sécurité des applications. À l’inverse, l’impact à long terme de l’IA pour la sécurité est énorme et est probablement sous-estimé, même par beaucoup d’entre nous sur le terrain.

Des réalisations fantastiques ; des échecs tragiques

En prenant un peu de recul, l’apprentissage automatique (ML) a une longue et riche histoire. Il a peut-être attiré l’attention du public pour la première fois avec un logiciel de jeu d’échecs il y a 50 ans, progressant au fil du temps jusqu’à ce qu’IBM Watson remporte un championnat Jeopardy aux chatbots d’aujourd’hui qui sont sur le point de passer le test légendaire de Turing.

Événement

Transformer 2023

Rejoignez-nous à San Francisco les 11 et 12 juillet, où des cadres supérieurs partageront comment ils ont intégré et optimisé les investissements en IA pour réussir et éviter les pièges courants.

S’inscrire maintenant

Ce qui me frappe, c’est à quel point chacune de ces étapes a été une réalisation fantastique à un niveau et un échec tragique à un autre. D’une part, les chercheurs en IA ont pu construire des systèmes qui se rapprochaient des meilleurs humains du monde, et souvent les surpassaient, sur une base problème spécifique.

D’un autre côté, ces mêmes succès ont mis à nu la différence qui subsistait entre une IA et un humain. En règle générale, les réussites de l’IA n’ont pas excellé en raisonnant un être humain ou en étant plus créatives, mais en faisant quelque chose de plus élémentaire plus rapidement ou à une échelle exponentiellement plus grande.

Augmenter et accélérer les humains

Donc, quand j’ai demandé, comment pensez-vous que l’IA, ou ML, affectera la cybersécurité à l’avenir ? ma réponse est que le plus grand impact à court terme ne viendra pas du remplacement des humains, mais de l’augmentation et de l’accélération des humains.

Les calculatrices et les ordinateurs sont une bonne analogie qui n’ont pas remplacé les humains, mais au lieu de cela, ils ont permis de décharger et d’effectuer plus efficacement des tâches spécifiques telles que l’arithmétique, les simulations numériques, les recherches de documents.

L’utilisation de ces outils a fourni un saut quantique dans les performances quantitatives, permettant à ces tâches d’être effectuées de manière plus omniprésente. Cela a permis des méthodes de travail entièrement nouvelles, telles que de nouveaux modes d’analyse que des feuilles de calcul comme VisiCalc, et plus tard Excel, au profit des humains et de la société dans son ensemble. Une histoire similaire s’est déroulée avec les échecs informatiques, où les meilleurs échecs du monde sont désormais joués lorsque les humains et les ordinateurs collaborent, chacun contribuant au domaine dans lequel il est le meilleur.

Les impacts les plus immédiats de l’IA sur la cybersécurité basés sur le dernier petit nouveau sur les chatbots génératifs d’IA sont déjà visibles. Un exemple prévisible, un modèle qui se produit souvent chaque fois qu’un service à la mode exposé à Internet devient disponible, qu’il s’agisse de ChatGPT ou de billets Taylor Swift, est la pléthore de faux sites Web ChatGPT mis en place par des criminels pour collecter frauduleusement des informations sensibles auprès des consommateurs.

Naturellement, le monde de l’entreprise est également prompt à en profiter. Par exemple, les ingénieurs logiciels augmentent l’efficacité du développement en utilisant des accélérateurs de création de code basés sur l’IA tels que Copilot. Bien sûr, ces mêmes outils peuvent également accélérer le développement de logiciels pour les cyber-attaquants, réduisant le temps nécessaire entre la découverte d’une vulnérabilité et l’existence d’un code qui l’exploite.

Comme c’est presque toujours le cas, la société est généralement plus rapide à adopter une nouvelle technologie qu’à en considérer les implications. Poursuivant avec l’exemple de Copilot, l’utilisation d’outils de génération de code IA ouvre de nouvelles menaces.

L’une de ces menaces est la fuite de données. La propriété intellectuelle clé d’une société de développeurs peut être révélée lorsque l’IA apprend du code que le développeur écrit et le partage avec les autres développeurs qu’elle assiste. En fait, nous avons déjà des exemples de mots de passe divulgués via Copilot.

Une autre menace est la confiance injustifiée dans le code généré qui n’a peut-être pas fait l’objet d’une surveillance humaine suffisamment expérimentée, ce qui risque de déployer un code vulnérable et d’ouvrir davantage de failles de sécurité. En fait, une étude récente de la NYU a révélé qu’environ 40 % d’un ensemble représentatif de code généré par Copilot présentaient des vulnérabilités communes.

Des chatbots plus sophistiqués

En regardant un peu, mais pas trop, plus loin, je m’attends à ce que les mauvais acteurs cooptent la dernière technologie d’IA pour faire ce que l’IA a fait de mieux : permettre aux humains, y compris les criminels, de se développer de manière exponentielle. Plus précisément, la dernière génération de chatbots IA a la capacité de se faire passer pour des humains à grande échelle et de haute qualité.

Il s’agit d’une grande aubaine (du point de vue des cybercriminels), car dans le passé, ils étaient obligés de choisir d’aller large et superficiel ou étroit et profond dans leur sélection de cibles. Autrement dit, ils pourraient soit cibler de nombreuses victimes potentielles, mais d’une manière générique et facile à discerner (hameçonnage), soit ils pourraient faire un travail d’usurpation d’identité bien meilleur et beaucoup plus difficile à détecter pour n’en cibler que quelques-unes, ou même juste une, victime potentielle (spearphishing).

Avec les derniers chatbots IA, un attaquant isolé peut se faire passer pour des humains plus étroitement et plus facilement, que ce soit dans le chat ou dans un e-mail personnalisé à une échelle d’attaque beaucoup plus élevée. Les contre-mesures de protection réagiront bien sûr à ce mouvement et évolueront, probablement en utilisant d’autres formes d’IA, telles que les classificateurs d’apprentissage en profondeur. En fait, nous avons déjà des détecteurs d’images truquées alimentés par l’IA. Le jeu du chat et de la souris en cours se poursuivra, uniquement avec des outils alimentés par l’IA des deux côtés.

L’IA comme multiplicateur de force de cybersécurité

En regardant un peu plus loin dans la boule de cristal, l’IA sera de plus en plus utilisée comme multiplicateur de force pour les services de sécurité et les professionnels qui les utilisent. Encore une fois, l’IA permet des sauts quantiques d’échelle en accélérant ce que les humains font déjà régulièrement mais lentement.

Je m’attends à ce que les outils basés sur l’IA augmentent considérablement l’efficacité des solutions de sécurité, tout comme les calculatrices accélèrent considérablement la comptabilité. Un exemple concret qui a déjà mis cette réflexion en pratique est dans le domaine de la sécurité de l’atténuation DDoS. Dans les solutions héritées, lorsqu’une application était soumise à une attaque DDoS, les ingénieurs du réseau humain devaient d’abord rejeter la grande majorité du trafic entrant, à la fois valide et invalide, juste pour éviter les défaillances en cascade en aval.

Ensuite, après avoir gagné du temps, les humains pourraient s’engager dans un processus plus intensif d’analyse des modèles de trafic pour identifier les attributs particuliers du trafic malveillant afin qu’il puisse être bloqué de manière sélective. Ce processus prendrait des minutes à des heures, même avec les humains les meilleurs et les plus qualifiés. Aujourd’hui, cependant, l’IA est utilisée pour analyser en continu le trafic entrant, générer automatiquement la signature du trafic invalide et même appliquer automatiquement le filtre basé sur la signature si la santé des applications est menacée, le tout en quelques secondes. Cela aussi est un exemple de la proposition de valeur fondamentale de l’IA : effectuer des tâches de routine beaucoup plus rapidement.

L’IA dans la cybersécurité : faire progresser la détection des fraudes

Ce même modèle d’utilisation de l’IA pour accélérer les humains peut être adopté et est adopté pour d’autres solutions de cybersécurité de nouvelle génération telles que la détection des fraudes. Lorsqu’une réponse en temps réel est requise, et en particulier dans les cas où la confiance dans l’évaluation des IA est élevée, l’IA est habilitée à réagir immédiatement.

Cela dit, les systèmes d’IA ne dépassent toujours pas les humains et ne comprennent pas les nuances ou le contexte. Dans de tels cas où la probabilité ou l’impact commercial des faux positifs est trop important, l’IA peut toujours être utilisée en mode d’assistance pour signaler et hiérarchiser les événements de sécurité les plus intéressants pour l’humain.

Le résultat net est une collaboration entre les humains et les IA, chacun faisant ce qu’il fait de mieux, améliorant l’efficacité et l’efficacité par rapport à ce que l’un ou l’autre pourrait faire indépendamment, rimant à nouveau avec l’analogie des échecs informatiques.

J’ai une grande confiance dans la progression jusqu’à présent. En regardant encore plus profondément dans la boule de cristal, j’ai l’impression que l’histoire de l’adage se répète rarement, mais elle rime souvent avec justesse. L’impact à plus long terme de la collaboration homme-IA, c’est-à-dire les résultats de l’IA comme multiplicateur de force pour les humains, est aussi difficile à prévoir pour moi qu’il aurait pu l’être pour le concepteur de la calculatrice électronique de prédire la feuille de calcul.

En général, j’imagine que cela permettra aux humains de préciser davantage l’intention, les priorités et les garde-fous de la politique de sécurité, l’IA aidant et mappant dynamiquement cette intention sur le niveau suivant d’actions détaillées.

Ken Arora est un ingénieur distingué chez F5.

DataDecisionMakers

Bienvenue dans la communauté VentureBeat !

DataDecisionMakers est l’endroit où les experts, y compris les techniciens travaillant sur les données, peuvent partager des informations et des innovations liées aux données.

Si vous souhaitez en savoir plus sur les idées de pointe et les informations à jour, les meilleures pratiques et l’avenir des données et de la technologie des données, rejoignez-nous sur DataDecisionMakers.

Vous pourriez même envisager de contribuer votre propre article !

En savoir plus sur DataDecisionMakers

www.actusduweb.com
Suivez Actusduweb sur Google News


Ce site utilise des cookies pour améliorer votre expérience. Nous supposerons que cela vous convient, mais vous pouvez vous désinscrire si vous le souhaitez. J'accepte Lire la suite