L’IA peut identifier les frappes au clavier uniquement grâce au son de votre frappe et voler des informations avec une précision de 95 %, selon une nouvelle étude.
Vous vous êtes peut-être habitué à couvrir votre webcam, mais vous devrez peut-être maintenant commencer à étouffer le son de votre clavier.
Les utilisateurs d’ordinateurs portables risquent de se faire voler des informations sensibles, notamment des messages privés, des mots de passe et des numéros de carte de crédit, simplement en tapant sur leur clavier. Un nouvel article rédigé par une équipe de chercheurs d’universités britanniques montre que l’intelligence artificielle peut identifier les frappes au clavier uniquement par le son avec une précision de 95 %. Et à mesure que la technologie continue de se développer à un rythme rapide, de telles attaques deviendront de plus en plus sophistiquées.
Dans cette étude, les expérimentateurs ont correctement identifié les frappes sur un MacBook Pro grâce à un téléphone à proximité enregistrant 95 % du temps et grâce à un appel Zoom enregistré à un taux de 93 %.
Le document de recherche détaille ce qu’il appelle des attaques par canal secondaire acoustique dans lesquelles un tiers malveillant utilise un appareil secondaire, comme un téléphone portable placé à côté d’un ordinateur portable ou un microphone non mis en sourdine sur un logiciel de vidéoconférence tel que Zoom, pour enregistrer le son de dactylographie. Le tiers alimente ensuite l’enregistrement via une IA d’apprentissage en profondeur entraînée à reconnaître le son des touches individuelles enfoncées afin de déchiffrer exactement ce qui a été tapé.
L’apprentissage profond (DL) est un sous-ensemble de l’apprentissage automatique dans lequel les ordinateurs apprennent à traiter les données d’une manière similaire au cerveau humain, essentiellement en utilisant un réseau neuronal multicouche pour apprendre à partir de grandes quantités de données et produire avec précision des informations et des prédictions. Les modèles d’apprentissage en profondeur peuvent reconnaître des modèles dans les images, les textes, les sons et d’autres données. Ce type d’IA se retrouve dans des produits quotidiens comme les assistants numériques comme Alexa d’Amazon et les télécommandes de télévision à commande vocale, ainsi que dans des technologies plus récentes comme les voitures autonomes.
Avec les développements récents en termes de performances (et d’accès) aux microphones et aux modèles DL, la faisabilité d’une attaque acoustique sur les claviers commence à paraître probable, indique le journal.
L’article, publié le 3 août, a été rédigé par Joshua Harrison, ingénieur en développement logiciel chez Amazon récemment diplômé d’une maîtrise en ingénierie de l’Université de Durham, ainsi que par Ehsan Toreini, professeur à l’Université de Surrey, et Maryam, maître de conférences à l’Université Royal Holloway de Londres. Mehrenzhad.
Atténuer la menace en constante évolution
Les ordinateurs portables sont des cibles particulièrement idéales pour ces attaques en raison de leur portabilité, selon le journal. Les gens utilisent souvent leur ordinateur portable pour travailler dans des espaces publics comme les bibliothèques, les cafés et les salles d’étude, où le bruit de la frappe peut facilement être enregistré sans que l’utilisateur ciblé ne s’en aperçoive.
L’une des principales préoccupations du journal est que les gens ne sont pas conscients de ce type d’attaques et ne font donc rien pour les empêcher.
L’omniprésence des émanations acoustiques des claviers en fait non seulement un vecteur d’attaque facilement accessible, mais incite également les victimes à sous-estimer (et donc à ne pas essayer de cacher) leur production, indique le journal. Par exemple, lors de la saisie d’un mot de passe, les utilisateurs masqueront régulièrement leur écran mais ne feront pas grand-chose pour obscurcir le son de leur clavier.
Une façon d’atténuer la menace de cette attaque consiste à utiliser des mots de passe plus forts avec plusieurs casses, comme des caractères spéciaux, des lettres majuscules et minuscules et des chiffres. Les mots de passe contenant des mots complets peuvent être plus facilement déduits et donc présenter un plus grand risque d’attaque.
Et bien que l’appui sur la touche Maj puisse être reconnu par l’IA, elle ne peut pas encore reconnaître le pic de relâchement de la touche Maj au milieu du son des autres touches, doublant ainsi l’espace de recherche de caractères potentiels après une pression sur la touche Maj, indique le journal. .
Un autre moyen simple de dissuader ce type d’attaques consiste à utiliser l’authentification à deux facteurs. Il s’agit d’une méthode de sécurité qui nécessite deux formes d’identification pour accéder aux comptes et aux données. Par exemple, le premier facteur peut être un mot de passe et le second peut être une confirmation de l’activité du compte par e-mail ou sur un appareil distinct.
L’authentification biométrique, comme l’analyse des empreintes digitales et la reconnaissance faciale, peut également réduire le risque d’attaque.
Mais à mesure que l’IA continue d’évoluer, ces attaques évolueront également. Les auteurs de l’article ont recommandé que les futures études analysent l’utilisation de haut-parleurs intelligents pour enregistrer les frappes au clavier, car ces appareils restent toujours allumés et sont présents dans de nombreux foyers.
Les auteurs ont également suggéré que les recherches futures devraient explorer la mise en œuvre d’un modèle de langage utilisé en tandem avec une IA d’apprentissage en profondeur. Les modèles de langage, comme le chatbot viral ChatGPT, sont formés sur de grandes séries de textes pour reconnaître des modèles de discours.
Un modèle de langage pourrait améliorer la reconnaissance des frappes au clavier lors de l’identification de mots définis, ainsi qu’une implémentation de bout en bout dans le monde réel d’une attaque ASC sur un clavier, indique le journal.