L’IA mène une course silencieuse aux armements en matière de cybersécurité

(TNS) Les applications de l’intelligence artificielle connaissent une croissance exponentielle et continueront de le faire à mesure que la technologie progresse encore.

Aujourd’hui, CNHI et le Horaires Virginie-Occidentale poursuivons une série en cours sur l’IA et ses avantages et préoccupations potentiels dans diverses parties de la vie quotidienne. Cette dernière partie revisite l’IA et son utilisation en matière de cybersécurité. Les parties précédentes de la série ont examiné l’utilisation de l’IA dans l’éducation, les soins de santé, les affaires, les médias sociaux, les interventions d’urgence, les voyages et le journalisme.

L’intelligence artificielle peut constituer une nouvelle ligne de front dans la guerre perpétuelle entre les hackers blancs et noirs.


Selon les experts, l’IA a le potentiel de changer la donne en matière de sécurité numérique en raison de sa capacité à détecter les menaces. Sa capacité, grâce aux algorithmes et à l’apprentissage automatique, à passer au crible un océan de données pour identifier et neutraliser les menaces la place bien au-delà des capacités humaines, offrant peut-être une sentinelle toujours alerte et infatigable protégeant d’importantes forteresses numériques.

« L’IA s’apparente à une épée à double tranchant. D’une part, elle est le gardien vigilant du domaine numérique », a déclaré Joseph Harisson, PDG du réseau des sociétés informatiques basé à Dallas. « Les algorithmes d’IA agissent comme des limiers numériques, détectant les anomalies et les menaces avec une précision que les analystes humains pourraient manquer. »

Cependant, c’est cette formidable puissance d’analyse rapide de grands ensembles de données qui fait également de l’IA un outil puissant pour les criminels et autres acteurs malveillants.

« Ils utilisent l’IA pour créer des cyberattaques plus sophistiquées, transformant le chasseur en traqué », a déclaré Harisson. « Ces menaces alimentées par l’IA sont comme des caméléons, évoluant constamment pour se fondre dans leur environnement numérique, ce qui les rend plus difficiles à détecter et à contrecarrer. C’est un jeu perpétuel du chat et de la souris, les deux parties tirant parti de l’IA pour déjouer l’autre. »

Les chercheurs construisent des réseaux informatiques qui ressemblent à la structure du cerveau humain, ce qui conduit à des percées dans la recherche sur l’IA. Cette recherche ne sert pas seulement à renforcer la cybersécurité, mais également à améliorer la sécurité dans le monde réel. La recherche biométrique, telle que les empreintes digitales et la reconnaissance faciale, aide les forces de l’ordre à sécuriser des sites importants comme les aéroports et les bâtiments gouvernementaux. Les sociétés de sécurité utilisent également ces technologies pour sécuriser les biens de leurs clients. Cela a même atteint le secteur domestique, avec des entreprises comme Ring fournissant des solutions de sécurité domestique.

Katerina Goseva-Popstojanova, professeur au Département Lane d’informatique et d’ingénierie de l’Université de Virginie occidentale, a déclaré que l’IA fait partie du paysage de la cybersécurité depuis longtemps. L’apprentissage automatique, partie intégrante de l’IA, a été utilisé à diverses fins dans ce domaine.

Prenez un logiciel antivirus, a déclaré Goseva-Popstojanova. Les logiciels tels que l’antivirus Norton ou Kaspersky disposent d’une IA intégrée qui est formée sur les virus connus afin de pouvoir détecter les virus sur les machines hôtes. Les filtres anti-spam fonctionnent de la même manière. Bien que chatGPT ait fait de l’IA un problème domestique, la technologie elle-même est utilisée depuis longtemps en coulisses.

DÉMOLATION DES FORTERESSES

Aleksa Krstic, PDG de Localizely, une plateforme de traduction logicielle en tant que service basée à Belgrade, en Serbie, a déclaré que les caméras alimentées par l’IA peuvent analyser les flux vidéo en temps réel et identifier les objets ou les menaces potentielles.

« Les algorithmes d’IA peuvent reconnaître les individus, permettant ainsi un contrôle d’accès et un suivi plus efficaces », a-t-il déclaré. « Les systèmes d’IA peuvent apprendre à quoi ressemble un comportement « normal » dans un environnement spécifique et déclencher des alertes lorsque des écarts se produisent. »

Cependant, l’IA peut également être utilisée pour détruire les cyberforteresses créées par les gouvernements et les entreprises. Krstic a déclaré que l’IA peut automatiser les attaques à grande échelle, en générant des e-mails de phishing sophistiqués ou en lançant des botnets automatisés. L’IA, grâce à de fausses vidéos et à sa capacité à générer des vidéos à grande échelle, peut diffuser des informations erronées ou manipuler l’opinion publique à des fins personnelles.

« De mon point de vue actuel, tout peut être utilisé pour le meilleur ou pour le pire », a déclaré Goseva-Popstojanova. « Alors disons de la dynamite. Vous pouvez utiliser de la dynamite pour construire des tunnels ou des mines ou vous pouvez utiliser de la dynamite pour tuer des gens. C’est la même chose avec l’IA. »

Goseva-Popstojanova a déclaré que l’IA générative comme ChatGPT peut être utilisée par les cybercriminels pour parcourir Internet à la recherche d’informations accessibles au public afin de créer rapidement le profil d’une personne. Ce profil peut être utilisé pour commettre un crime, qu’il s’agisse d’usurpation d’identité, d’escroquerie ou de spam. Le maillon le plus faible de la cybersécurité est l’élément humain. L’ingénierie sociale, c’est-à-dire l’utilisation de compétences sociales pour manipuler un individu afin qu’il effectue une action souhaitée, devient beaucoup plus facile avec des outils d’IA tels que les deep fakes ou l’usurpation d’identité vocale.

« Il y a quelque chose qui s’appelle phishing, ou vishing, si cela se fait par téléphone et maintenant cela se fait par SMS, où quelqu’un prétend être quelqu’un et escroque la personne », a-t-elle déclaré. « L’une des raisons pour lesquelles l’attaque des hôtels MGM s’est produite est qu’il ne s’agissait pas d’un problème sophistiqué. Il s’agissait simplement de quelqu’un qui a utilisé une attaque d’ingénierie sociale pour obtenir les informations nécessaires pour se connecter à son système. »

Une cyberattaque contre MGM Resorts cet automne a coûté à l’entreprise des millions de dollars en perte de revenus, a exposé les informations personnelles de dizaines de millions de clients récompensés par des récompenses de fidélité, et a désactivé certains systèmes informatiques sur place.

IA trompeuse

Dans le monde physique, les criminels peuvent recourir à des tactiques telles que l’usurpation d’identité pour tromper l’IA. La technique peut impliquer des mesures simples, comme utiliser la photo d’une personne pour tromper la reconnaissance faciale. Ou, si quelqu’un veut éviter d’être reconnu en public, un sweat à capuche fabriqué à partir d’un matériau spécial qui reflète la lumière différemment de la peau peut être utilisé pour briser l’algorithme de reconnaissance faciale. Une IA plus sophistiquée peut rechercher des signes de vie pour éviter de se laisser tromper par une photo. Cependant, une vidéo du visage d’une personne pourrait faire l’affaire. Maquillage, masques, masques 3D peuvent tous être utilisés. Enfin, il faut pirater la base de données elle-même et modifier les paramètres afin que le visage ou l’empreinte digitale de l’attaquant soit autorisé par le système.

L’apprentissage automatique contradictoire est le domaine de recherche qui examine comment l’apprentissage automatique peut être utilisé pour attaquer d’autres systèmes d’IA. Goseva-Popstojanova a déclaré qu’il s’agissait aujourd’hui d’un vaste domaine de recherche, la recherche de moyens de tromper les algorithmes et de classer les activités malveillantes comme non malveillantes. Cela permet aux chercheurs de trouver des moyens plus robustes pour sécuriser un système. Une version précédente de ChatGPT pouvait être amenée à divulguer les informations privées d’un individu, comme ses e-mails ou ses adresses personnelles, en envoyant à plusieurs reprises des spams à l’IA avec des mots spécifiques. Les chercheurs ont délibérément travaillé sur des moyens de briser l’IA pour divulguer ces informations, puis les ont signalés à OpenAI pour corriger la faille.

Une chose est claire : la boîte de Pandore est ouverte et l’IA fait désormais partie du monde, ont déclaré des responsables. Bien que les algorithmes et le code des machines soient derrière le vernis de la vie quotidienne, la guerre invisible entre les hackers blancs et noirs définira la vie des gens du monde entier.

En octobre, le directeur du FBI, Christopher Wray, s’est exprimé lors d’une conférence avec les dirigeants des Five Eyes, une coalition regroupant les États-Unis, le Royaume-Uni, le Canada, l’Australie et la Nouvelle-Zélande. La coalition a été créée au lendemain de la Seconde Guerre mondiale pour partager des renseignements et collaborer en matière de sécurité. La conférence visait la Chine, que Wray a qualifiée de principale menace pour l’innovation mondiale, et a accusé le gouvernement du pays de voler la recherche sur l’IA pour poursuivre ses propres efforts de piratage. Ainsi, l’IA s’étend du niveau individuel au niveau politique mondial.

« Nous sommes intéressés par l’espace de l’IA du point de vue de la sécurité et de la cybersécurité et nous alignons donc de manière proactive nos ressources pour collaborer avec la communauté du renseignement et nos partenaires du secteur privé afin de mieux comprendre la technologie et tout impact potentiel en aval », a écrit le bureau de presse national du FBI dans un communiqué. e-mail. « Le FBI se concentre particulièrement sur l’anticipation et la défense contre les menaces émanant de ceux qui utilisent l’IA et l’apprentissage automatique pour alimenter des cyberactivités malveillantes, commettre des fraudes, propager des crimes violents et menacer notre sécurité nationale. Nous nous efforçons d’arrêter les acteurs qui attaquent ou dégradent l’IA. Les systèmes /ML sont utilisés à des fins légitimes et licites. »

Dhanvin Sriram, fondateur de Prompt Vibes et expert en IA, a déclaré que l’apprentissage automatique a plus que prouvé sa valeur en analysant rapidement les données et en trouvant des modèles susceptibles d’indiquer un risque. Cependant, il faut faire preuve de prudence lors de l’évaluation de toute nouvelle technologie susceptible de changer de paradigme.

« Le véritable défi est de développer des systèmes d’IA qui non seulement renforcent les défenses, mais qui déjouent également les IA malveillantes », a-t-il déclaré. « Il s’agit d’un jeu constant du chat et de la souris où garder une longueur d’avance nécessite une innovation continue et une approche attentive des considérations éthiques. Dans ce paysage de sécurité dynamique, le conflit entre la défense basée sur l’IA et l’IA malveillante souligne la nécessité de progrès continus pour garantir que l’IA reste. une force de protection, pas d’exploitation.

2023 le Times West Virginian, distribué par Tribune Content Agency, LLC.

www.actusduweb.com
Suivez Actusduweb sur Google News


Ce site utilise des cookies pour améliorer votre expérience. Nous supposerons que cela vous convient, mais vous pouvez vous désinscrire si vous le souhaitez. J'accepte Lire la suite