#image_title

Le ChatGPT d’OpenAI sera-t-il utilisé pour écrire des logiciels malveillants ?

Le nouveau chatbot OpenAI ChatGPT pourrait être utilisé pour générer des logiciels malveillants, ont averti certains analystes. Le code généré par l’intelligence artificielle pourrait avoir un effet dévastateur sur la cybersécurité, car les logiciels de défense écrits par l’homme pourraient ne pas être suffisants pour s’en protéger.

Tel que rapporté par Moniteur technique Hier, OpenAI a publié cette semaine le chatbot ChatGPT. Basé sur le modèle d’IA grand langage GPT-3 de l’entreprise, il a déjà prouvé qu’il était apte à accomplir une grande variété de tâches, allant de la réponse aux requêtes des clients à la génération de code et à l’écriture d’une prose complexe et précise basée sur des invites simples.

Les utilisations potentielles des IA pourraient également s’étendre à la sphère de la cybercriminalité. Un ingénieur du renseignement sur les menaces et des logiciels malveillants connu sur Twitter sous le nom de @lordx64 affirme avoir utilisé le chatbot pour générer de nouveaux logiciels malveillants.

Vous pouvez générer des charges utiles post-exploitation à l’aide d’openAI et vous pouvez être précis sur comment/quelles charges utiles vous devez faire. C’est la cyberguerre pour laquelle je me suis engagé, a-t-il annoncé dans un tweet.

ChatGPT pourrait-il générer son propre malware ?

L’intelligence artificielle est déjà largement utilisée dans la cybersécurité pour aider à repérer et à réagir rapidement aux attaques. ChatGPT pourrait-il aller plus loin dans ce processus et être utilisé pour générer du code ? Dr Raj Sharma, consultant principal en intelligence artificielle et cybersécurité à l’Université d’Oxford.

C’est un code assez basique, mais qui peut être exploité, a déclaré le Dr Sharma Moniteur technique. L’automatisation est l’une des choses pour lesquelles l’IA est bonne. Si les pirates peuvent former un chatbot à créer comme celui-ci, il continuera à apprendre, il pourrait donc être possible pour les pirates de posséder ensuite un outil basé sur l’apprentissage pour le piratage.

Mais bien que ChatGPT soit facile à utiliser à un niveau basique, le manipuler pour qu’il soit capable de générer des logiciels malveillants puissants peut nécessiter des compétences techniques au-delà de beaucoup de pirates, affirme Bharat Mistry, directeur technique chez Trend Micro. Nous voyions de plus en plus d’utilisation de ces chatbots et il y a plus d’intelligence derrière eux, dit Mistry. [But] la sophistication du cybercriminel devrait maintenant s’intensifier, car il lui faudrait savoir comment modifier le moteur pour qu’il fasse ce dont il a besoin. Ensuite, la campagne proprement dite est une campagne beaucoup plus sophistiquée.

Contenu de nos partenaires
Comment l'adoption des modèles B2B2C permet aux fabricants de se rapprocher toujours plus de leurs consommateurs

La technologie et l'innovation peuvent stimuler la reprise post-pandémique du secteur de la logistique

Comment s'engager efficacement dans la surveillance SAP à une époque de volatilité

Ce niveau de connaissances signifie qu’il est susceptible d’être l’apanage des pirates informatiques parrainés par l’État qui mènent des attaques de cyberespionnage, dit Mistry. Il va falloir un gang très sophistiqué pour faire quelque chose comme ça, dit-il. Des outils comme ceux-ci entre de mauvaises mains peuvent être dangereux.

Que pourriez-vous faire pour arrêter les logiciels malveillants générés par l’IA ?

Le potentiel des systèmes d’IA comme ChatGPT à générer du matériel raciste et des discours de haine a été beaucoup discuté, et OpenAI a publié un article qui reconnaît que ses systèmes pourraient être utilisés pour réduire les coûts des campagnes de désinformation.

Des contrôles peuvent être mis en place pour empêcher la génération de ce type de matériel offensant, dit Sharma. S’il y a trop de demandes en cours ou si un type de message est diffusé plusieurs fois, nous pouvons vérifier cela, dit-il. La machine apprend qu’elle ne peut pas se comporter comme ça.

Pour les logiciels malveillants, ce serait une autre histoire, dit-il, et la seule façon de lutter contre le code malveillant créé par un système d’IA comme ChatGTP serait d’utiliser l’IA pour créer la protection. S’il existe une sorte d’outil de piratage qui utilise l’IA, nous devons utiliser l’IA pour comprendre son comportement, dit Sharma. Cela ne peut pas être fait avec les contrôles de sécurité traditionnels normaux.

Mistry convient que l’IA sera nécessaire comme mesure défensive dans ce scénario, car l’IA est compétente pour créer des choses polymorphes, capables de changer de forme pour s’adapter à chaque interaction avec un système. Un moteur d’IA pourrait le faire rapidement à la vitesse et à l’échelle, ce qu’un humain ne pourrait pas faire, ajoute-t-il.

Lire la suite : L’IA étendra l’ampleur et la sophistication de la cybercriminalité

Sujets dans cet article :

www.actusduweb.com
Suivez Actusduweb sur Google News


Ce site utilise des cookies pour améliorer votre expérience. Nous supposerons que cela vous convient, mais vous pouvez vous désinscrire si vous le souhaitez. J'accepte Lire la suite