Les implications de l’IA comme ChatGPT sur la cybersécurité
Bien que ChatGPT puisse sembler être un nouvel outil brillant avec lequel les technologues peuvent jouer dans le cadre de l’aperçu public d’OpenAI, les experts en cybersécurité avertissent que le chatbot d’IA conversationnel pourrait être abusé comme tout autre outil informatique légitime.
Cependant, les implications sont bien plus graves, car un assistant hautement intelligent utilisé par les attaquants pour les aider à pénétrer les systèmes est très préoccupant.
De retour à la conférence RSA 2021, Johannes Ullrich, doyen de la recherche au SANS Technology Institute, a déclaré que l’apprentissage automatique et l’intelligence artificielle ont déclaré que si les entreprises de cybersécurité rendent leurs produits plus intelligents et ajoutent des capacités d’apprentissage automatique, les adversaires pourraient commencer à faire de même.
En effet, il existe déjà des cas d’utilisation de la cybersécurité et de l’informatique générale pour ChatGPT, tels que l’écriture de code et de scripts, l’identification des vulnérabilités dans le code et la prise en charge générale des questions de cybersécurité. Cependant, cette technologie pourrait également s’avérer tout aussi utile pour les acteurs de la menace, déclare Steve Povolny, ingénieur principal et responsable de la recherche avancée sur les menaces pour la société de cybersécurité Trellix.
Povolny dit que les professionnels de la cybersécurité utilisent ChatGPT pour les aider à vérifier les vulnérabilités dans le code et comme outil de contrôle de la qualité dans le processus de développement logiciel. Le chatbot est déjà largement utilisé, dit-il.
Je l’ai utilisé pour effectuer des vérifications ponctuelles de certaines vulnérabilités, des injections SQL, examiner de simples dépassements de mémoire tampon et voir dans quelle mesure il les identifie et les décrit, explique Povolny. son été très précis à cela.
Cependant, des outils d’IA avancés tels que ChatGPT peuvent également faciliter la vie d’un acteur malveillant. De la même manière que la communauté informatique utilise l’IA pour faire son travail et automatiser les tâches, les pirates peuvent également l’utiliser pour mener des activités malveillantes de manière plus efficace et plus précise.
Certaines des choses dont j’ai vu des rumeurs ou dans la pratique sont des utilisations abusives telles que le développement d’e-mails de phishing très réalistes, la génération de logiciels malveillants pseudo-opérationnels ou pleinement opérationnels, dit Povolny.
Comment une IA comme ChatGPT peut être utilisée de manière malveillante
Selon la société de cybersécurité Check Point Software, une analyse de plusieurs grands forums de piratage souterrain montre que les acteurs de la menace utilisent déjà le chatbot pour développer des outils malveillants, en particulier pour les acteurs de la menace sans compétences solides en développement ou en codage.
Dans un cas analysé par les chercheurs de Check Points, un auteur de menaces a posté sur un forum des expériences avec ChatGPT pour recréer des souches de logiciels malveillants et des techniques décrites dans des publications de recherche et des articles sur des logiciels malveillants courants. Un exemple comprenait le code d’un voleur basé sur Python qui recherche les types de fichiers courants, les copie dans un dossier aléatoire à l’intérieur du dossier Temp, les comprime et les télécharge sur un serveur FTP codé en dur.
En effet, l’analyse du script par les entreprises confirme les affirmations des cybercriminels de créer un voleur d’informations de base qui recherche 12 types de fichiers courants, tels que des documents Microsoft Office, des fichiers PDF et des images.
La société de cybersécurité demande même à ChatGPT comment les pirates peuvent abuser de l’outil, mais note qu’OpenAI prend des mesures pour empêcher que sa technologie ne soit utilisée à des fins malveillantes, comme obliger les utilisateurs à accepter des conditions de service qui interdisent l’utilisation de sa technologie pour des activités illégales. .
« Bien que nous ayons fait des efforts pour que le modèle refuse les demandes inappropriées, il répondra parfois à des instructions nuisibles ou affichera un comportement biaisé », déclare OpenAI sur son site Web. « Nous utilisions l’API de modération pour avertir ou bloquer certains types de contenu dangereux, mais nous nous attendons à ce qu’il ait des faux négatifs et positifs pour l’instant. Nous étions impatients de recueillir les commentaires des utilisateurs pour nous aider dans notre travail continu d’amélioration de ce système. »
Povolny confirme que les forums clandestins ont mis en évidence les cas d’utilisation malveillants de ChatGPT.
Si vous y réfléchissez, cela prend tout son sens, dit Povolny. C’est vraiment juste un outil qui est utilisé pour simplifier tout ce qui est généralement basé sur du texte, et le code est généralement basé sur du texte. L’informatique apprend du référentiel de code d’Internet et bien sûr, elle peut imiter et reproduire ce genre de chose.
Grâce à ces capacités, les pirates inexpérimentés ou les attaquants avancés souhaitant réduire leurs propres coûts pourraient utiliser cette IA conversationnelle avancée pour créer une entrée logique pour l’outil et générer le meilleur résultat possible.
(Les hackers) ont joué avec cela pour générer du code qui leur prendrait probablement beaucoup de temps à écrire par eux-mêmes, dit Povolny.
Ulrich de RSA en 2021 a admis qu’il n’y avait pas eu beaucoup d’exemples d’attaquants utilisant l’IA/ML pour mener des attaques, et Povolny est d’accord plus de deux ans plus tard. Les techniques d’attaque simples telles que les e-mails de phishing connaissent toujours un succès retentissant, et les entreprises sont toujours aux prises avec une myriade de problèmes informatiques hérités aujourd’hui.
Cependant, ce qui préoccupe la communauté de la cybersécurité, c’est de savoir comment un outil comme ChatGPT peut réduire la barrière technique à l’entrée pour les acteurs de la menace.
Selon Monica Oravcova, directrice de l’exploitation et cofondatrice de la société de cybersécurité Naoris Protocol, un outil comme ChatGPT peut aider les attaquants à travailler plus intelligemment et plus efficacement pour les aider à trouver des exploits et des vulnérabilités dans l’infrastructure de code existante.
La dure vérité pourrait signifier que des milliers de plates-formes et de contrats intelligents pourraient soudainement être exposés, entraînant une augmentation à court terme des cyber-violations, déclare Oravcova.