Outil d’IA ou terrain de jeu des escrocs ? ChatGPT exploité pour des activités frauduleuses : Expert
Le logo ChatGPT est visible sur cette illustration prise le 3 février 2023. (Photo d’archives : Reuters)
Malgré le potentiel de ChatGPT à bénéficier à la vie quotidienne, notamment en aidant les utilisateurs à créer des textes et des lettres bien écrits, certains de ses utilisateurs ciblent les internautes pour obtenir des informations personnelles et un gain monétaire.
Depuis son lancement en novembre de l’année dernière, ChatGPT a rapidement gagné en popularité parmi les utilisateurs du monde entier. Cependant, plusieurs rapports ont été publiés ces dernières semaines suggérant que les escrocs utilisent à mauvais escient la plate-forme d’IA basée sur le langage.
Pour tous les derniers titres, suivez notre chaîne Google News en ligne ou via l’application.
Les criminels peuvent alimenter des exemples de texte d’entités ou de personnes qu’ils cherchent à imiter, et ChatGPT est équipé pour créer des messages convaincants basés sur eux.
ChatGPT est utilisé par des escrocs pour créer des attaques de phishing et rédiger des e-mails frauduleux convaincants, ce qui suscite une inquiétude croissante parmi le public et les experts en cybersécurité quant à l’identification de ces escroqueries avant que les gens n’en deviennent la proie.
Mais ce concept n’est pas nouveau, a déclaré Maher Yamout, chercheur principal en sécurité chez Kaspersky.
L’IA est utilisée par les escrocs depuis un certain temps maintenant, en particulier avec les deepfakes, un type de média synthétique généré à l’aide de techniques d’IA telles que l’apprentissage automatique et les réseaux de neurones pour créer un clip vidéo ou audio qui semble montrer une personne disant ou faisant quelque chose. qu’ils n’ont pas réellement dit ou fait.
Les escrocs, et les mauvais acteurs en général, aiment utiliser les technologies pour leur donner un avantage lorsqu’il s’agit de créer des choses qui peuvent prendre du temps ou qui peuvent nécessiter un long processus plus complexe, ce qui leur facilite un peu les choses, a déclaré Yamout à Al. Arabiya English en marge de la conférence GISEC sur la cybersécurité à Dubaï cette semaine.
Maintenant, cela ne signifie pas que ChatGPT peut créer seul un virus pour un téléphone ou une campagne de phishing à l’épreuve des balles. Il a ses limites.
Si un escroc ou un pirate essaie de créer un algorithme ou un virus, il doit d’abord savoir ce qu’il vise à faire. L’utilisation de ChatGPT nécessite une intervention humaine car il s’agit d’une plate-forme basée sur des requêtes.
ChatGPT leur donnera l’avantage du temps, les rendant plus efficaces en accélérant le processus de création de choses complexes, mais il ne peut pas créer des choses par lui-même, il a besoin d’un humain en plus pour faire des vérifications de santé mentale et s’assurer que le processus de ce qu’ils font apporte les résultats qu’ils recherchent.
L’une des fonctionnalités de ChatGPT qui a été exploitée par les criminels est ses capacités de codage. Il peut s’adapter à différents langages de programmation et générer des morceaux de code pouvant être utilisés dans des applications. Cela signifie que les programmeurs amateurs peuvent générer du code pour des tâches malveillantes sans même apprendre à coder.
Utilisation de l’IA pour identifier le texte généré par l’IA
La popularité de ChatGPT augmente et il est important d’être prudent lorsque vous recevez des textes ou des e-mails qui semblent trop bien rédigés.
Traditionnellement, il était conseillé aux gens de faire attention aux textes et aux e-mails mal écrits, mais l’émergence d’outils d’IA comme ChatGPT a changé la donne. Pour éviter les attaques de phishing, il est conseillé de supprimer toute correspondance non sollicitée et de vérifier toute communication d’entreprises ou d’organismes gouvernementaux en les appelant directement.
Une façon d’identifier ces escroqueries consiste à utiliser ChatGPT lui-même pour identifier le texte généré par l’IA, a déclaré Yamout.
Vous pouvez utiliser ChatGPT ou AI lui-même pour détecter le texte basé sur l’IA. Apparemment, cela fonctionne, vous pouvez donc l’utiliser pour détecter les termes de contexte et de langue basés sur l’IA. Mais en fin de compte, nous devons savoir, comme avec les modèles basés sur le langage, tels que ChatGPT, qu’ils ont des limites dans le sens où c’est un système basé sur des requêtes, donc vous leur posez la question, ils vous répondent. Ce n’est pas comme s’il pouvait interagir avec le monde réel.
Lorsqu’on lui a demandé s’il était conscient du fait qu’il pouvait aider les escrocs sans s’en rendre compte, ChatGPT a répondu : Oui, je suis conscient que les escrocs peuvent utiliser mes réponses pour essayer de manipuler ou de tromper les gens. En tant que modèle de langage IA, je n’ai pas la capacité de faire la distinction entre les demandes ou les intentions authentiques et frauduleuses. Il est important que les utilisateurs soient prudents et fassent preuve d’esprit critique lorsqu’ils interagissent avec des informations en ligne, y compris des informations fournies par des modèles de langage d’IA comme moi.
Il a également suggéré des moyens d’identifier les drapeaux rouges.
Il existe certains signaux d’alarme que les utilisateurs peuvent rechercher pour identifier les escroqueries potentielles ou les activités frauduleuses, telles que les messages non sollicités demandant des informations personnelles ou financières, les demandes de paiement ou de virements électroniques, ou les promesses de grosses sommes d’argent en échange d’un petit investissement. . Si vous pensez être la cible d’une escroquerie, il est important de le signaler aux autorités compétentes et de prendre des mesures pour protéger vos informations personnelles et vos finances, a déclaré ChatGPT lors d’une conversation.
Les développeurs de ChatGPT, OpenAI, ont exprimé leur engagement à empêcher l’utilisation abusive de leur outil. Ils ont créé l’outil Classifier, qui aide à différencier le texte écrit par l’IA et écrit par l’homme.
Cependant, à mesure que la technologie de l’IA progresse, il est impératif de se tenir au courant de ses capacités et des risques potentiels.
La menace profonde
Yamout a déclaré qu’il pensait que les deepfakes étaient toujours la menace la plus importante en matière d’escroqueries assistées par l’IA.
Le problème avec les systèmes basés sur l’IA qui sont capables d’imiter ou d’imiter la voix ou la vidéo d’une personne ; qui peut être un peu difficile à identifier.
Cependant, Yamout a ajouté que certaines anomalies clés peuvent être identifiées dans les deepfakes.
L’IA a généralement des problèmes avec les yeux, les oreilles et les doigts, vous pouvez donc détecter des anomalies dans l’image et vous pouvez même détecter des anomalies dans les vidéos, ce qui peut ressembler à quelqu’un qui essaie de se répéter dans le son ou le comportement.
Les escrocs peuvent utiliser des deepfakes pour imiter la voix de quelqu’un, appeler sa banque et éventuellement voler de l’argent.
Je pense que la partie la plus délicate sera la voix et c’est parce que vous ne pouvez pas la voir ou la sentir, il sera donc difficile de saisir les erreurs au téléphone.
En savoir plus:
Percée de l’IA : ChatGPT peut presque passer l’examen de licence médicale aux États-Unis, selon une étude
Mise à jour de l’application ChatGPT plus humaine : Entreprise
OpenAIs ChatGPT Plus désormais disponible aux EAU pour 20 $ par mois