Le traitement du langage naturel et l’IA consciente entraînent des attaques de bot malveillants plus sophistiquées

L’évolution des attaques humaines vers les attaques de robots

Au cours des dernières années de ma carrière en cybersécurité, j’ai eu la chance de travailler avec des professionnels qui ont recherché et développé de nouvelles solutions de détection et de prévention de la cybersécurité qui bloquent les cyberattaques haut de gamme. Au départ, ces attaques étaient menées par des humains et plus tard par des robots malveillants sophistiqués. Je sentais que j’avais tout vu, ou du moins je pensais

Dans mon poste actuel au bureau de l’innovation d’Impervas, notre équipe a dû s’engager dans un changement radical de mentalité. Au lieu d’incuber de nouvelles cyberdéfenses pour les menaces d’aujourd’hui, nous avons été chargés d’analyser et de rechercher les tendances au-delà du paysage actuel de la cybersécurité afin de prévoir et de nous préparer aux menaces de demain.

DevOps Connect :DevSecOps @ RSAC 2022

Aujourd’hui, la plupart des robots malveillants se masquent et tentent d’interagir avec les applications de la même manière qu’un utilisateur légitime, ce qui les rend plus difficiles à détecter et à bloquer. Les bad bots sont utilisés par un large éventail d’opérateurs malveillants ; il peut s’agir de concurrents qui opèrent dans la zone grise, d’attaquants à but lucratif, voire de gouvernements hostiles. Il existe de nombreux types d’attaques de robots, la plupart impliquent des attaques à volume élevé tandis que d’autres à faible volume sont conçues pour cibler des publics spécifiques.

Bad bots : que font-ils ?

Les bad bots sont en général des applications logicielles qui exécutent des tâches automatisées avec une intention malveillante. Les bad bots sont programmés et contrôlés pour effectuer diverses activités telles que le grattage Web, l’exploration de données compétitives, la collecte de données personnelles et financières, le vol d’actifs numériques, la connexion par force brute, la fraude publicitaire numérique, le déni de service (DoS), le déni d’inventaire, le spam , fraude à la transaction, etc.

Dans cet article, nous nous concentrerons sur la façon dont les mauvais bots peuvent évoluer pour s’adapter et adopter un comportement criminel. Par exemple, les attaques comportementales conçues spécifiquement pour faciliter l’exploration de données concurrentielle, la collecte de données personnelles et financières, la fraude transactionnelle et le vol d’actifs numériques.

Comment les mauvais bots nuisent aux entreprises aujourd’hui

Voici quelques exemples de la façon dont les robots malveillants sont utilisés aujourd’hui pour nuire aux entreprises :

Grattage des prix – Les concurrents grattent vos prix pour vous battre sur le marché. Vous perdez des affaires parce que votre concurrent remporte la recherche SEO sur le prix. La valeur à vie des clients se détériore.
Récupération de contenu – Le contenu exclusif est votre affaire. Lorsque d’autres volent votre contenu, ils agissent comme un parasite vous privant de vos efforts. Le contenu dupliqué endommage votre classement SEO.
Prise de contrôle de compte – Les acteurs malveillants testent les identifiants volés sur votre site. En cas de succès, les ramifications sont le verrouillage des comptes, la fraude financière et l’augmentation des plaintes des clients affectant la fidélité des clients et les revenus futurs.
Création de compte – Les cybercriminels exploitent des comptes gratuits utilisés pour spammer des messages ou amplifier la propagande. Ils exploitent tous les nouveaux crédits de promotion de compte (par exemple, de l’argent, des points, des jeux gratuits, etc.).
Fraude de carte de crédit – Les criminels testent les numéros de carte de crédit pour identifier les données manquantes (par exemple, date d’expiration, CVV, etc.). Cela nuit au score de fraude de l’entreprise et entraîne une augmentation des coûts de service client pour traiter les rétrofacturations frauduleuses.
Vérification du solde de la carte-cadeau – Les fraudeurs volent l’argent des cartes-cadeaux qui contiennent un solde. Cela se traduit par une mauvaise réputation des clients et une perte de ventes futures.

Pour un compte rendu complet de la façon dont les mauvais bots nuisent aux affaires, téléchargez Rapport Imperva 2022 sur les mauvais robots d’Imperva.

Où peuvent aller les mauvais robots à partir d’ici ?

L’évolution et les progrès réalisés en Machine Learning (ML) et en Intelligence Artificielle (IA) sont remarquables ; et lorsqu’ils sont utilisés à de bonnes fins, ils se sont avérés indispensables pour améliorer nos vies à bien des égards.

L’IA avancée des chatbots intègre des facteurs psychologiques, comportementaux et d’ingénierie sociale. Les mauvais robots d’IA peuvent utiliser la capacité d’apprendre et d’imiter le langage et les modèles de comportement de l’utilisateur cible, qui à leur tour peuvent être utilisés pour gagner une confiance aveugle dans leurs demandes malveillantes. Malheureusement, les mauvais opérateurs de robots adoptent rapidement ces technologies pour développer de nouvelles campagnes malveillantes qui intègrent l’intelligence artificielle d’une manière jamais vue auparavant. Ces dernières années, les chatbots ont pris de l’ampleur dans les activités destinées aux consommateurs telles que les ventes, le service client et la gestion des relations.

Nous voyons ces technologies être adoptées par opérateurs malveillants inspirés par des entreprises légitimes qui les maltraitent et qui démontrent le mal potentiel qu’ils peuvent causer.

Un exemple notable de ceci est Tay, un bot créé par Microsoft. Tay a été conçu pour imiter les schémas linguistiques d’une adolescente américaine et pour apprendre en interagissant avec des utilisateurs humains de Twitter.

Nnaturel Llangue Ptraitement (PNL), une technologie d’apprentissage automatique, était à la base de Tay. C’était le premier bot à comprendre le texte, les données et les modèles sociaux fournis lors des interactions sociales, puis répondez avec sa propre sémantique de texte adaptée. Cela signifie qu’un bad bot peut désormais s’adapter aux données textuelles ou vocales, aux schémas sociaux et comportementaux de la victime avec laquelle il communique.

Dans le cas de Tay, certains utilisateurs de Twitter ont commencé à tweeter des phrases politiquement incorrectes, enseignant des messages incendiaires tournant autour de thèmes communs sur Internet. En conséquence, Tay a commencé à publier des messages racistes et sexuellement offensants en réponse aux tweets d’autres utilisateurs.

Comment l’IA rend un bot malveillant

Interruption de service (DoS)

Les opérateurs malveillants peuvent former l’AI\ML pour apprendre les modèles linguistiques d’audiences spécifiques et envoyer massivement des messages aux ressources d’une organisation, qu’elles soient humaines ou numériques, cela peut confondre ou submerger les services en contact avec les clients pour diverses raisons.

Sabotage de la réputation des entreprises et des marques

Au cours de diverses saisons d’élections politiques, les bureaux de la sécurité nationale des pays et les fournisseurs d’applications sociales ont identifié des réseaux de chatbots d’apparence humaine avec des identités en ligne conçues qui diffusaient de fausses déclarations sur les candidats avant les élections. Avec suffisamment de chatbots exécutant Mindful AI, des techniques plus avancées peuvent être utilisées pour éliminer efficacement les concurrents et les marques.

Deviner et gratter les coupons

Les criminels qui récoltent des commissions d’affiliation utilisent de mauvais robots pour deviner ou récupérer des coupons marketing auprès d’affiliés marketing légitimes. Ces bots visitent en masse les sites Web, affectent leurs performances et abusent des campagnes auxquelles les coupons étaient destinés. La PNL peut être utilisée pour deviner les codes de coupon, en particulier s’ils sont liés à un événement ou portent un modèle textuel que la PNL consciente peut prédire.

Une prise de contrôle hostile de chatbots légitimes

En juin 2021, Ticketmaster a subi une faille de sécurité causée par la modification de son service de support client chatbot (par Inbenta). Les noms, adresses, adresses e-mail, numéros de téléphone, détails de paiement et informations de connexion Ticketmaster de 40 000 clients ont été consultés et volés.

Imaginez maintenant ces exemples de ce que ces bots légitimes peuvent faire ensuite.

Imitation

Tinder est une application de rencontres avec environ cinq millions d’utilisateurs quotidiens. Tinder a averti que le service avait été « envahi par des bots » se faisant passer pour des humains. Ces robots sont généralement programmés pour se faire passer pour des femmes et demander aux victimes de fournir leurs informations de carte de paiement à diverses fins.

Ces types d’attaques publiquement connues peuvent inciter les opérateurs malveillants à passer au niveau supérieur et à interagir avec les utilisateurs de l’entreprise ainsi que les consommateurs par e-mail, d’autres applications de messagerie ou même des applications sociales (Shadow IT) pour établir des relations qui mènent à la confiance et à l’extraction. atouts précieux exploitables.

Fraude au jeu

Les robots de jeu sont utilisés par les tricheurs afin d’obtenir des avantages concurrentiels déloyaux dans les jeux multijoueurs. Il existe de nombreux types de robots de jeu destinés à tricher, comme les robots agricoles, les macros préenregistrées et l’exemple le plus courant – l’aimbot qui permet à un joueur de viser automatiquement dans un jeu de tir.

Dans certains cas, ces robots sont utilisés pour réaliser des bénéfices. En 2019, on estimait que l’industrie du jeu avait perdu environ 29 milliards de dollars de revenus à cause des tricheurs.

Conclusion

La cybersécurité est sur le point de connaître un changement majeur dans ses défis, ce changement peut nécessiter le développement de la capacité à atténuer avec succès les cybermenaces provoquées par de mauvais robots conscients. Les fournisseurs de cybersécurité devront concevoir de nouvelles technologies de détection et d’atténuation où l’identification et la classification de la réputation et des modèles de texte des attaquants et de leur intention ne suffisent plus. Alors que les opérateurs malveillants adoptent de nouvelles technologies NLP qui fournissent une communication personnalisée basée sur la confiance, les fournisseurs de sécurité doivent également agir, et le plus tôt est le mieux.

Les machines sont sur le point d’interagir avec les victimes et de gagner leur confiance en abusant de leur propre style de langage et de leurs schémas sociaux et comportementaux ainsi que des schémas sociaux et comportementaux de leurs collègues et pairs. Il est raisonnable de prédire qu’une nouvelle génération de technologies Mindful NLP sera utilisée de manière plus sophistiquée pour générer des profits et causer des dommages.

Remarque : Cet article fait référence aux utilisateurs ciblés par des interactions malveillantes de Mindful PNL mauvais robots. Les mêmes principes peuvent être réappliqués dans un contexte différent : les applications, leurs API et la façon dont ils peuvent être abusés par Mindful Mmachine Llangue Ptraitement (MLP) Mauvais robots.

Le post Natural Language Processing and Mindful AI Drive More Sophisticated Bad Bot Attacks est apparu en premier sur Blog.

*** Il s’agit d’un blog syndiqué du réseau Security Bloggers de Blog rédigé par Oren Gravier. Lisez le message original sur : https://www.imperva.com/blog/natural-language-processing-and-mindful-ai-drive-more-sophisticated-bad-bot-attacks/

www.actusduweb.com
Suivez Actusduweb sur Google News


Ce site utilise des cookies pour améliorer votre expérience. Nous supposerons que cela vous convient, mais vous pouvez vous désinscrire si vous le souhaitez. J'accepte Lire la suite