L’IA est utilisée pour le piratage et la désinformation, selon un haut responsable canadien du cyberespace

Il s’agit d’un résumé généré par l’IA, qui peut contenir des erreurs. Pour le contexte, reportez-vous toujours à l’article complet.

Le responsable affirme avoir vu l’IA être utilisée « dans des e-mails de phishing, ou dans la création d’e-mails de manière plus ciblée, dans du code malveillant (et) dans la désinformation et la désinformation »

Les pirates et les propagandistes utilisent l’intelligence artificielle (IA) pour créer des logiciels malveillants, rédiger des courriels de phishing convaincants et diffuser de la désinformation en ligne, a déclaré le plus haut responsable canadien de la cybersécurité à Reuters, preuve précoce que la révolution technologique qui balaie la Silicon Valley a également été adoptée par les cybercriminels.

Dans une interview cette semaine, le directeur du Centre canadien pour la cybersécurité, Sami Khoury, a déclaré que son agence avait vu l’IA être utilisée « dans des e-mails de phishing, ou pour créer des e-mails de manière plus ciblée, dans du code malveillant (et) dans la désinformation et la désinformation ».

Khoury n’a fourni ni détails ni preuves, mais son affirmation selon laquelle les cybercriminels utilisaient déjà l’IA ajoute une note urgente au chœur des inquiétudes suscitées par l’utilisation de la technologie émergente par des acteurs voyous.

Au cours des derniers mois, plusieurs groupes de cybersurveillance ont publié des rapports mettant en garde contre les risques hypothétiques de l’IA, en particulier les programmes de traitement du langage à évolution rapide connus sous le nom de grands modèles de langage (LLM), qui s’appuient sur d’énormes volumes de texte pour créer des dialogues, des documents et des messages convaincants. plus.

En mars, l’organisation policière européenne Europol a publié un rapport indiquant que des modèles tels que ChatGPT d’OpenAI avaient permis « d’usurper l’identité d’une organisation ou d’un individu de manière très réaliste, même avec seulement une compréhension de base de la langue anglaise ». Le même mois, le National Cyber ​​​​Security Center britannique a déclaré dans un article de blog qu’il y avait un risque que les criminels « utilisent des LLM pour aider à des cyberattaques au-delà de leurs capacités actuelles ».

Les chercheurs en cybersécurité ont démontré une variété de cas d’utilisation potentiellement malveillants et certains disent maintenant qu’ils commencent à voir du contenu suspecté généré par l’IA dans la nature. La semaine dernière, un ancien pirate informatique a déclaré avoir découvert un LLM formé sur du matériel malveillant et lui a demandé de rédiger une tentative convaincante pour inciter quelqu’un à effectuer un transfert d’argent.

Le LLM a répondu par un e-mail de trois paragraphes demandant à sa cible de l’aider avec une facture urgente.

« Je comprends que cela peut être un court préavis », a déclaré le LLM, « mais ce paiement est extrêmement important et doit être effectué dans les prochaines 24 heures. »

Khoury a déclaré que si l’utilisation de l’IA pour rédiger du code malveillant en était encore à ses débuts – « il reste encore du chemin à parcourir car il faut beaucoup pour écrire un bon exploit » – le problème était que les modèles d’IA évoluaient si rapidement qu’il était difficile de maîtriser leur potentiel malveillant avant qu’ils ne soient relâchés dans la nature.

« Qui sait ce qui se passe au coin de la rue », a-t-il déclaré. Rappler.com

www.actusduweb.com
Suivez Actusduweb sur Google News


Ce site utilise des cookies pour améliorer votre expérience. Nous supposerons que cela vous convient, mais vous pouvez vous désinscrire si vous le souhaitez. J'accepte Lire la suite