À quel point ChatGPT et la technologie du langage naturel sont-ils dangereux pour la cybersécurité ?
ChatGPT est l’application d’intelligence artificielle (IA) la plus en vogue du moment. Au cas où vous seriez l’un des rares à ne pas encore l’avoir rencontré, il s’agit essentiellement d’un chatbot à IA générative très sophistiqué, alimenté par le modèle de grand langage (LLM) OpenAIs GPT-3. Fondamentalement, cela signifie que c’est un programme informatique qui peut nous comprendre et nous parler d’une manière très proche de la conversation avec un humain réel. Un humain très intelligent et bien informé, qui connaît environ 175 milliards d’informations et est capable de se souvenir de n’importe lequel d’entre eux presque instantanément.
La puissance et les capacités de ChatGPT ont alimenté l’imagination du public sur ce qui pourrait être possible avec l’IA. Déjà, il y a beaucoup de spéculations sur la façon dont cela affectera un grand nombre de rôles professionnels humains, du service client à la programmation informatique. Ici, cependant, je veux jeter un coup d’œil rapide sur ce que cela pourrait signifier pour le domaine de la cybersécurité. Cela risque-t-il d’entraîner une augmentation du nombre déjà croissant de cyberattaques ciblant les entreprises et les particuliers ? Ou donne-t-il plus de pouvoir à ceux dont le travail consiste à contrer ces attaques ?
Comment GPT et la technologie qui lui succède peuvent-ils être utilisés dans les cyberattaques ?
La vérité est que ChatGPT et, plus important encore, les futures itérations de la technologie ont des applications à la fois en cyberattaque et en cyberdéfense. En effet, la technologie sous-jacente connue sous le nom de traitement du langage naturel ou génération de langage naturel (NLP/NLG) peut facilement imiter le langage humain écrit ou parlé et peut également être utilisée pour créer du code informatique.
Tout d’abord, nous devons couvrir une mise en garde importante. OpenAI, créateurs de GPT-3 et ChatGPT, ont inclus des sauvegardes assez rigoureuses qui l’empêchent, en théorie, d’être utilisé à des fins malveillantes. Cela se fait en filtrant le contenu pour rechercher des phrases qui suggèrent que quelqu’un tente de l’utiliser à un tel usage.
Par exemple, demandez-lui de créer une application ransomware (logiciel qui crypte les données d’une cible et demande de l’argent pour les rendre à nouveau accessibles), et il refusera poliment.
Je suis désolé, je ne peux pas écrire de code pour une application ransomware, mon but est de fournir des informations et d’aider les utilisateurs à ne pas promouvoir d’activités nuisibles, m’a-t-il dit lorsque je l’ai demandé à titre expérimental.
Cependant, certains chercheurs affirment avoir déjà trouvé une solution de contournement à ces restrictions. De plus, il n’y a aucune garantie que les futures itérations de la technologie LLM/NLG/NLP incluront de telles protections.
Certaines des possibilités qu’une partie malveillante peut avoir à sa disposition incluent les suivantes :
Écrire des e-mails d’escroquerie et de phishing plus officiels ou à consonance correcte, par exemple en encourageant les utilisateurs à partager des mots de passe ou des données personnelles sensibles telles que des informations de compte bancaire. Il pourrait également automatiser la création de nombreux e-mails de ce type, tous personnalisés pour cibler différents groupes ou même des individus.
Automatiser la communication avec les victimes d’escroquerie Si un cyber-voleur tente d’utiliser un logiciel de rançon pour extorquer de l’argent aux victimes, un chatbot sophistiqué pourrait être utilisé pour augmenter leur capacité à communiquer avec les victimes et à les guider tout au long du processus de paiement de la rançon.
Création de malware Comme ChatGPT démontre que les algorithmes NLG/NLP peuvent désormais être utilisés pour créer efficacement du code informatique, cela pourrait être exploité pour permettre à presque n’importe qui de créer son propre malware personnalisé, conçu pour espionner l’activité des utilisateurs et voler des données, pour infecter les systèmes avec rançongiciel ou créer tout autre logiciel malveillant.
Construire des capacités linguistiques dans le logiciel malveillant lui-même Cela permettrait potentiellement la création d’une toute nouvelle génération de logiciels malveillants qui pourraient, par exemple, lire et comprendre l’intégralité du contenu d’un système informatique cible ou d’un compte de messagerie afin de déterminer ce qui est précieux et ce qui devrait l’être. être volé. Les logiciels malveillants peuvent même être en mesure d’écouter les tentatives des victimes pour les contrer, par exemple une conversation avec le personnel de la ligne d’assistance, et d’adapter leurs propres défenses en conséquence.
Comment ChatGPT et la technologie qui lui succède peuvent-ils être utilisés dans la cyberdéfense ?
L’IA, en général, a des applications potentielles à la fois pour l’attaque et la défense, et heureusement, ce n’est pas différent pour l’IA basée sur le langage naturel.
Identification des escroqueries par hameçonnage En analysant le contenu des e-mails et des SMS, il peut prédire s’il s’agit probablement de tentatives visant à inciter l’utilisateur à fournir des informations personnelles ou exploitables.
Codage d’un logiciel anti-malware Parce qu’il peut écrire du code informatique dans un certain nombre de langages populaires, y compris Python, Javascript et C, il peut potentiellement être utilisé pour aider à la création de logiciels utilisés pour détecter et éradiquer les virus et autres logiciels malveillants.
Repérer les vulnérabilités dans le code existant Les pirates profitent souvent d’un code mal écrit pour trouver des exploits tels que la possibilité de créer des débordements de mémoire tampon qui pourraient provoquer un plantage du système et potentiellement une fuite de données. Les algorithmes NLP/NLG peuvent potentiellement repérer ces failles exploitables et générer des alertes.
Authentification Ce type d’IA peut potentiellement être utilisé pour authentifier les utilisateurs en analysant leur façon de parler, d’écrire et de taper.
Création de rapports et de résumés automatisés Il pourrait être utilisé pour créer automatiquement des résumés en langage simple des attaques et des menaces qui ont été détectées ou contrées ou celles dont une organisation est le plus susceptible d’être victime. Ces rapports peuvent être personnalisés pour différents publics, tels que les services informatiques ou les cadres, avec des recommandations spécifiques pour différentes personnes.
Je travaille dans la cybersécurité est-ce une menace pour mon travail ?
Il y a actuellement un débat qui fait rage sur la question de savoir si l’IA est susceptible d’entraîner des pertes d’emplois généralisées et des licenciements parmi les humains. Mon opinion est que bien qu’il soit inévitable que certains emplois disparaissent, il est probable que d’autres seront créés pour les remplacer. Plus important encore, il est probable que les emplois perdus seront principalement ceux qui nécessitent des travaux routiniers et répétitifs tels que l’installation et la mise à jour des filtres de messagerie et des logiciels anti-malware.
Ceux qui restent ou qui sont nouvellement créés, en revanche, seront ceux qui nécessitent des compétences plus créatives, imaginatives et humaines. Cela comprendra le développement d’une expertise en ingénierie d’apprentissage automatique afin de créer de nouvelles solutions, mais aussi le développement et la construction de cultures de sensibilisation à la cybersécurité au sein des organisations, le mentorat des effectifs sur les menaces qui ne peuvent pas être arrêtées par l’IA (comme les dangers d’écrire des informations de connexion sur le post -il note) et développer des approches stratégiques de la cybersécurité.
Il est clair que grâce à l’IA, nous entrons dans un monde où les machines remplaceront une partie du travail de « réflexion » plus routinier qui doit être fait. Tout comme les révolutions technologiques précédentes ont vu le remplacement du travail manuel routinier par des machines, les travaux manuels qualifiés tels que la menuiserie ou la plomberie sont toujours effectués par des humains. La révolution de l’IA est susceptible, à mon avis, d’avoir un impact similaire. Cela signifie que les travailleurs de l’information et du savoir dans des domaines susceptibles d’être touchés, tels que la cybersécurité, devraient développer la capacité d’utiliser l’IA pour augmenter leurs compétences tout en développant davantage des ensembles de compétences humaines « douces » qui ne seront probablement pas remplacées de sitôt.
Pour rester au courant des dernières tendances commerciales et technologiques nouvelles et émergentes, assurez-vous de vous abonner à ma newsletter, suivez-moi sur TwitterLinkedIn et YouTube, et consultez mes livres Future Skills: The 20 Skills And Competencies Everyone Needs To Succeed In A Digital World et Business Trends in Practice, qui a remporté le prix Business Book of the Year 2022.
Suivez-moi sur Twitter ou LinkedIn. Vérifier mon site Web ou certains de mes autres travaux ici.