#image_title

AI Pulse : Siri salue OpenAI, Deepfake Olympics et plus encore

Quoi de neuf dans l’IA en cybersécurité

Siri dit bonjour… à OpenAI
L’omniprésence de l’IA est en partie responsable de son inquiétude croissante pour les équipes de cybersécurité. Plus les plateformes et les appareils sur lesquels elle est déployée sont nombreux, plus les questions relatives à la sécurité et à la confidentialité se posent. Apple ayant annoncé son intention d’intégrer ChatGPT d’OpenAI dans ses systèmes iOS, iPadOS et macOS, l’empreinte de l’IA est sur le point de s’accroître considérablement. Sous l’égide d’Apple Intelligence (qui a intelligemment sécurisé une forme de marque de l’abréviation AI uniquement pour Apple), la nouvelle fonctionnalité prendra en charge la compréhension des images et des documents et renforcera la capacité de Siris à répondre aux questions. Elle suivra également une abondance de données comportementales pour rendre les appareils plus personnalisés et plus réactifs. Tout le monde ne pense pas qu’Apple soit allé assez loin pour comprendre les implications de cette initiative en matière de sécurité, y compris Elon Musk, qui a menacé d’interdire les appareils Apple de ses installations si l’intégration de l’IA se concrétise.

L’IA plus intelligente est dans tous les RAG(e)
Jusqu’à présent, le manque de fiabilité notoire (et parfois hilarant) des grands modèles linguistiques (LLM) a limité les utilisations potentielles et les abus de l’IA. Cela change avec la mise en œuvre de la génération augmentée de récupération (RAG) et des techniques de réglage fin de l’IA. Le RAG donne aux LLM l’accès à des sources d’informations fiables et actuelles qui rendent leurs résultats plus précis, tandis que le réglage fin entraîne en profondeur les outils d’IA sur des tâches ou des sujets spécifiques. Ces deux éléments soulignent le rôle crucial que jouent les données pour rendre l’IA générative plus intelligente. La course est lancée pour connecter les applications d’IA à des données précieuses, riches, pertinentes et fiables, augmentant ainsi la valeur de ces données. Microsoft, Apple et Google travaillent tous à l’intégration du RAG et du réglage fin dans leurs technologies. Il ne fait aucun doute que les acteurs malveillants chercheront également à en tirer profit, ainsi que des données qui les alimentent, ce qui est essentiel pour une fraude ciblée à haut rendement.

Imaginez ceci
En juin, la société chinoise Kuaishou Technology a devancé OpenAI sur le marché avec un générateur de texte en vidéo appelé Kling AI, devançant ainsi la plateforme SORA de son rival. Ces deux innovations marquent le dernier bond en avant de la génération d’images par IA vers des médias photoréalistes en mouvement intégral et intensifient les inquiétudes concernant la prolifération des deepfakes. Pour brouiller encore davantage les frontières entre le virtuel et le réel, les World AI Creator Awards organisent un concours de beauté Miss AI qui met exclusivement en vedette des avatars numériques.

Tendances des menaces liées à l’IA

L’invasion des profanateurs de sépultures
La fraude est une activité extrêmement lucrative pour les cybercriminels. Les escroqueries et les tentatives de compromission de courrier électronique professionnel (BEC) génèrent des retours sur investissement des centaines de fois supérieurs à ceux des attaques bien connues comme les ransomwares. Si l’IA joue aujourd’hui un rôle relativement limité, la situation évolue rapidement. Les générateurs d’audio et d’images open source ont été perfectionnés pour les deepfakes, et les plateformes LLM facilitent la mise à l’échelle des attaques.

Le BEC se transforme rapidement en attaques de compromission vocale BVCbusiness qui utilisent des générateurs audio IA pour imiter la voix des dirigeants et autoriser des transactions illégitimes. En mai, le PDG du géant mondial de la publicité WPP a été la cible d’une tentative de fraude qui a fait la une des journaux en utilisant sa photo et sa voix sur WhatsApp. En avril dernier, le ministre roumain de l’Énergie a été usurpé dans une fausse promotion pour une plateforme d’investissement inexistante.

Conduire les victimes à l’abattoir
Un autre type de fraude n’attend que l’aide de l’IA : le phénomène de l’abattage de porcs, au nom grotesque (selon ce que vous pensez des cochons). L’abattage de porcs se concentre sur des conversations en ligne entre des victimes sans méfiance et des prédateurs se faisant passer pour des compagnons en ligne attrayants. Au fil du temps, ces prédateurs établissent un lien de confiance et finissent par convaincre les cibles d’investir des milliers de dollars dans des investissements inexistants.

L’IA générative étant déjà utilisée pour accélérer le phishing conventionnel, ce n’est qu’une question de temps avant que les cybercriminels l’appliquent également ici, en automatisant les avatars de chat deepfake pour économiser de la main-d’œuvre et leur permettre d’évoluer.

Générateurs d’images militarisés
Les deepfakes donnent également un coup de pouce aux extorqueurs. En Chine, un groupe baptisé Void Arachne par Trend Research utilise des fichiers d’installation Windows malveillants pour injecter des nudificateurs, des technologies vocales et faciales et des générateurs de pornographie pilotés par l’IA dans les systèmes des utilisateurs afin de les utiliser dans des attaques de sextorsion et d’enlèvement virtuel. Le programme cible spécifiquement les utilisateurs qui sont déjà intéressés par l’adoption des technologies de l’IA.

Quelle est la prochaine étape dans l’IA en matière de cybersécurité ?

Des Jeux Olympiques deepfake ?
Les événements de grande envergure constituent un environnement propice aux fraudeurs, attirant des foules de gens qui doivent se fier à des sources d’information inconnues. Les Jeux olympiques de Paris 2024 se révèlent être parmi les premiers à voir l’IA être largement utilisée, comme l’a montré une fausse vidéo de la CIA diffusée par des désinformateurs russes avertissant les Américains de ne pas utiliser le métro parisien en raison du risque d’attaque terroriste.

On s’attend à ce que quelque 15 millions de personnes se rendent dans la Ville Lumière fin juillet et début août, des inconnus qui sillonnent une ville inconnue à la recherche de moyens de transport, d’hébergement et d’autres commodités. Cela ouvre la voie à toutes sortes d’applications prédatrices, de liens malveillants et de tentatives de phishing et de smishing qui incitent les gens à partager des informations personnelles ou financières susceptibles d’être exploitées.

Le vrai gagnant peut-il se lever ?
Les technologies de deepfake utilisées dans d’autres domaines pour influencer les Jeux pourraient également être utilisées pour corrompre les Jeux. De fausses informations pourraient dénaturer les vainqueurs ou les perdants d’une épreuve particulière. Des sons deepfake pourraient ternir l’image d’un entraîneur, d’un joueur, d’une équipe ou d’un juge en leur faisant dire des choses controversées. Des images ou des vidéos deepfake pourraient être utilisées pour salir un athlète et l’empêcher de concourir. Les acteurs malveillants pourraient vouloir semer la discorde avec du contenu généré par l’IA, et les Jeux olympiques offrent une plateforme importante pour semer la discorde sur les réseaux sociaux.

Les données d’IA empoisonnées présentent également des risques. L’injection de données biaisées dans le processus de formation rend les modèles plus susceptibles de servir les objectifs recherchés par les cyberattaquants. Axios a récemment découvert que pratiquement tous les chatbots les plus importants au monde répètent la propagande russe, citant souvent de faux sites d’actualités locales comme source d’information.

Ce qui peut être fait?
En règle générale, les fans doivent faire preuve des précautions d’usage : ne croyez pas tout ce qu’ils voient en ligne par défaut. Commencez par des sites de confiance et recherchez une confirmation supplémentaire de toute information qu’ils lisent. Sachez que des informations erronées peuvent également se propager sur des sites de confiance. Inspectez tous les hyperliens et applications avant de les utiliser et ne divulguez rien qui pourrait être compromettant.

En même temps, assurez-vous que les appareils sont protégés : téléphones, ordinateurs et tout ce qui est lié à l’identité d’une personne. Cela s’applique à tous les canaux qu’une personne utilise pour obtenir des informations, y compris les SMS, les e-mails, les applications de productivité, etc.

Les fraudeurs chercheront à exploiter la confusion et la vulnérabilité des individus. La meilleure défense en matière d’IA de cybersécurité est la vigilance et une forme personnelle de confiance zéro pour protéger à la fois les données personnelles et l’identité même de chacun.

En savoir plus sur l’IA en cybersécurité

Consultez ces ressources supplémentaires :

www.actusduweb.com
Suivez Actusduweb sur Google News


Ce site utilise des cookies pour améliorer votre expérience. Nous supposerons que cela vous convient, mais vous pouvez vous désinscrire si vous le souhaitez. J'accepteLire la suite