Naviguer entre les deux facettes de l’IA pour la cybersécurité
Les solutions conventionnelles de cybersécurité, dont la portée est souvent limitée, ne parviennent pas à fournir une stratégie globale. En revanche, les outils d’IA offrent une approche globale, proactive et adaptative de la cybersécurité, faisant la distinction entre les erreurs bénignes des utilisateurs et les menaces réelles. Il améliore la gestion des menaces grâce à l’automatisation, de la détection à la réponse aux incidents, et utilise une recherche permanente des menaces pour garder une longueur d’avance sur les menaces avancées. Les systèmes d’IA apprennent et s’adaptent en permanence, analysant les bases du réseau et intégrant des renseignements sur les menaces pour détecter les anomalies et l’évolution des menaces, garantissant ainsi une protection supérieure.
Cependant, l’essor de l’IA introduit également des risques potentiels pour la sécurité, tels que l’IA malveillante posant des menaces ciblées sans garanties suffisantes. Des exemples tels que les réponses controversées de Bing l’année dernière et l’utilisation abusive de ChatGPT par des équipes de hackers mettent en évidence la nature à double tranchant de l’IA. Malgré de nouvelles garanties dans les systèmes d’IA pour empêcher toute utilisation abusive, leur complexité rend la surveillance et le contrôle difficiles, ce qui soulève des inquiétudes quant au potentiel de l’IA à devenir une menace de cybersécurité ingérable. Cette complexité souligne le défi permanent consistant à garantir une utilisation sûre et éthique de l’IA, reflétant les récits de science-fiction plus proches de notre réalité.
Risques importants
Essentiellement, les systèmes d’intelligence artificielle pourraient potentiellement être manipulés ou conçus avec des intentions nuisibles, posant ainsi des risques importants pour les individus, les organisations et même des nations entières. La manifestation d’une IA malveillante pourrait prendre de nombreuses formes, chacune avec son objectif et sa méthode de création uniques, notamment :
- Les systèmes d’IA ont été modifiés pour mener des activités néfastes telles que le piratage informatique, la diffusion de fausses informations ou l’espionnage.
- Les systèmes d’IA deviennent incontrôlables en raison d’une supervision ou d’une gestion insuffisante, entraînant des résultats inattendus et potentiellement dangereux.
- L’IA a été développée explicitement à des fins malveillantes, comme les armes automatisées ou la cyberguerre.
Un aspect alarmant est le vaste potentiel d’intégration de l’IA dans divers secteurs de nos vies, notamment les sphères économique, sociale, culturelle, politique et technologique. Cela présente un paradoxe, car les capacités mêmes qui rendent l’IA inestimable dans ces domaines lui permettent également de causer des dommages sans précédent grâce à sa vitesse, son évolutivité, son adaptabilité et sa capacité de tromperie.
Vice-président du développement de produits, Camelot Secure.
Dangers de l’IA malveillante
Les dangers associés à l’IA malveillante comprennent :
Désinformation: Pas plus tard que le 15 février 2024, OpenAI dévoilait sa technologie « Sora », démontrant sa capacité à produire des clips vidéo réalistes. Cette avancée pourrait être exploitée par une IA malveillante pour générer des récits convaincants mais faux, suscitant une inquiétude injustifiée et une désinformation dans la société.
Vitesse: La capacité de l’IA à traiter les données et à prendre des décisions rapidement dépasse les capacités humaines, ce qui complique les efforts visant à contrer ou à se défendre en temps opportun contre les menaces malveillantes de l’IA.
Évolutivité: Rogue AI a le potentiel de se dupliquer, d’automatiser les attaques et de violer de nombreux systèmes à la fois, causant d’importants dégâts.
Adaptabilité: L’IA sophistiquée peut évoluer et s’adapter à de nouveaux paramètres, la rendant imprévisible et difficile à combattre.
Tromperie: L’IA malveillante pourrait usurper l’identité d’humains ou d’opérations d’IA légitimes, compliquant ainsi l’identification et la neutralisation de ces menaces.
Pensez à l’appréhension suscitée par les débuts d’Internet, en particulier au sein des banques, des marchés boursiers et d’autres domaines sensibles. Tout comme la connexion à Internet expose ces secteurs à des cybermenaces, l’IA introduit de nouvelles vulnérabilités et vecteurs d’attaque en raison de sa profonde intégration dans diverses facettes de notre existence.
Un exemple particulièrement inquiétant d’application malveillante de l’IA est la réplication des voix humaines. Les capacités de l’IA vont au-delà du texte et du code, lui permettant d’imiter avec précision la parole humaine. Le potentiel de préjudice est clairement illustré par les scénarios dans lesquels l’IA imite la voix d’un proche pour commettre des escroqueries, par exemple convaincre une grand-mère d’envoyer de l’argent sous de faux prétextes.
Une attitude proactive
Pour contrer l’IA malveillante, une attitude proactive est essentielle. À titre d’exemple, OpenAI a annoncé la sortie de Sora, mais ils ont adopté une approche disciplinée en le gardant sous contrôle strict et ne l’ont pas encore rendu public. Comme publié sur leur compte de réseau social X le 15/02/24 à 10h14, « Nous prendrons plusieurs mesures de sécurité importantes avant de rendre Sora disponible dans les produits OpenAI. Nous travaillons avec des équipes rouges – des experts dans des domaines tels que la désinformation, les contenus haineux et les préjugés – qui testent le modèle de manière contradictoire.
Les développeurs d’IA doivent suivre ces quatre étapes proactives essentielles :
- Mettez en œuvre des protocoles de sécurité stricts pour protéger les systèmes d’IA des interférences non autorisées.
- Établissez des lignes directrices éthiques et des normes de développement responsable pour réduire les répercussions involontaires.
- Collaborez au sein de la communauté de l’IA pour échanger des informations et établir des normes uniformes de sécurité et d’éthique.
- Surveillez en permanence les systèmes d’IA pour identifier et atténuer de manière préventive les risques.
Les organisations doivent également se préparer aux menaces malveillantes de l’IA en :
- Utiliser les ressources en matière de sécurité de l’IA et de gestion des risques pour former leur personnel à reconnaître les menaces liées à l’IA.
- Forger des partenariats solides avec l’industrie, les agences gouvernementales de réglementation et les décideurs politiques afin de rester au courant des avancées et des meilleures pratiques en matière d’IA.
- Mettre en œuvre des évaluations annuelles des risques telles que CMMC et des tests d’intrusion de réseaux externes, et effectuer régulièrement des évaluations des risques traitant spécifiquement des vulnérabilités des systèmes d’IA, y compris les systèmes d’IA internes et externes intégrés aux opérations commerciales et aux systèmes d’information de l’entreprise.
- Fournir une politique d’utilisation de l’IA claire et facilement disponible au sein de l’organisation est essentiel pour contribuer à l’éducation et garantir le respect des normes d’éthique et de sécurité.
Nous sommes en 2024. Je pense qu’il est redondant de dire que les dangers potentiels des systèmes d’IA malveillants sont probables et qu’ils ne doivent pas être ignorés. Cependant, en tant que défenseur de l’IA GPT, je pense qu’il existe toujours une contribution positive dans le rapport entre les avantages et les inconvénients de l’IA, et nous devons tous commencer à adopter et à comprendre son potentiel le plus tôt possible. En promouvant une culture de développement et d’utilisation éthique de l’IA et en mettant l’accent sur les considérations de sécurité et d’éthique, nous pouvons minimiser les risques associés à l’IA malveillante et tirer parti de sa capacité à servir le plus grand bien de l’humanité.
Lien!
Cet article a été produit dans le cadre de la chaîne Expert Insights de TechRadarPro, où nous présentons les esprits les plus brillants et les plus brillants du secteur technologique actuel. Les opinions exprimées ici sont celles de l’auteur et ne sont pas nécessairement celles de TechRadarPro ou Future plc. Si vous souhaitez contribuer, découvrez-en plus ici : https://www.techradar.com/news/submit-your-story-to-techradar-pro