Exclusif : l’IA est utilisée pour le piratage et la désinformation, selon un haut responsable canadien du cyberespace

WASHINGTON, 20 juillet (Reuters) – Les pirates informatiques et les propagandistes utilisent l’intelligence artificielle (IA) pour créer des logiciels malveillants, rédiger des e-mails de phishing convaincants et diffuser de la désinformation en ligne, a déclaré à Reuters le plus haut responsable canadien de la cybersécurité. adopté par les cybercriminels.

Dans une interview cette semaine, le directeur du Centre canadien pour la cybersécurité, Sami Khoury, a déclaré que son agence avait vu l’IA être utilisée « dans des e-mails de phishing, ou pour créer des e-mails de manière plus ciblée, dans du code malveillant (et) dans la désinformation et la désinformation ».

Khoury n’a fourni ni détails ni preuves, mais son affirmation selon laquelle les cybercriminels utilisaient déjà l’IA ajoute une note urgente au chœur des inquiétudes suscitées par l’utilisation de la technologie émergente par des acteurs voyous.

Ces derniers mois, plusieurs groupes de cybersurveillance ont publié des rapports mettant en garde contre les risques hypothétiques de l’IA – en particulier les programmes de traitement du langage à évolution rapide connus sous le nom de grands modèles de langage (LLM), qui s’appuient sur d’énormes volumes de texte pour créer des dialogues convaincants, des documents et plus.

En mars, l’organisation policière européenne Europol a publié un rapport indiquant que des modèles tels que ChatGPT d’OpenAI avaient permis « d’usurper l’identité d’une organisation ou d’un individu de manière très réaliste, même avec seulement une compréhension de base de la langue anglaise ». Le même mois, le National Cyber ​​​​Security Center britannique a déclaré dans un article de blog qu’il y avait un risque que les criminels « utilisent des LLM pour aider à des cyberattaques au-delà de leurs capacités actuelles ».

Les chercheurs en cybersécurité ont démontré une variété de cas d’utilisation potentiellement malveillants et certains disent maintenant qu’ils commencent à voir du contenu suspecté généré par l’IA dans la nature. La semaine dernière, un ancien pirate informatique a déclaré avoir découvert un LLM formé sur du matériel malveillant et lui a demandé de rédiger une tentative convaincante pour inciter quelqu’un à effectuer un transfert d’argent.

Le LLM a répondu par un e-mail de trois paragraphes demandant à sa cible de l’aider avec une facture urgente.

« Je comprends que cela peut être un court préavis », a déclaré le LLM, « mais ce paiement est extrêmement important et doit être effectué dans les prochaines 24 heures. »

Khoury a déclaré que si l’utilisation de l’IA pour rédiger du code malveillant en était encore à ses débuts – « il reste encore du chemin à parcourir car il en faut beaucoup pour écrire un bon exploit » – le problème était que les modèles d’IA évoluaient si rapidement qu’il était difficile de maîtriser leur potentiel malveillant avant qu’ils ne soient relâchés dans la nature.

« Qui sait ce qui se passe au coin de la rue », a-t-il déclaré.

Reportage de Raphael Satter à Washington; édité par Chris Sanders et Josie Kao

Nos normes : Les principes de confiance de Thomson Reuters.

Journaliste couvrant la cybersécurité, la surveillance et la désinformation pour Reuters. Le travail a inclus des enquêtes sur l’espionnage parrainé par l’État, la propagande axée sur le deepfake et le piratage mercenaire.

www.actusduweb.com
Suivez Actusduweb sur Google News


Ce site utilise des cookies pour améliorer votre expérience. Nous supposerons que cela vous convient, mais vous pouvez vous désinscrire si vous le souhaitez. J'accepte Lire la suite