Un nouvel avertissement sérieux émis pour les pommes 1,65 milliard d’utilisateurs d’iPad et d’iPhone

Recevez des mises à jour en temps réel directement sur votre appareil, abonnez-vous maintenant.

Les propriétaires d’iPhone sont actuellement confrontés à de multiples menaces, mais le nouveau système de détection CSAM d’Apple a généré plus de craintes que même les plus gros piratages. Et ça n’a fait qu’empirer.

PLUS DE FORBESExtreme iPhone Hack détaillé : « nous rend tous vulnérables »

Dans un nouveau rapport choquant (via BleepingComputer), une équipe de chercheurs de l’Imperial College de Londres a découvert des failles fondamentales dans la technologie derrière le système de détection Apples CSAM (Child Sexual Abuse Material). Apple a l’intention de lancer CSAM sur tous les iPhones et iPads exécutant iOS 15, mais le rapport indique qu’il est simple pour les images d’échapper à la détection et de soulever de graves problèmes de confidentialité pour les utilisateurs.

CSAM fonctionne en comparant les hachages d’images (ID) des images partagées en privé entre les utilisateurs iOS aux bases de données fournies par les organisations de sécurité des enfants. Si des correspondances sont trouvées, les autorités et, le cas échéant, les parents sont automatiquement informés. En théorie, cela rend le système rigoureux et privé. Le problème est que les chercheurs de l’Impériale ont découvert que l’ensemble du système (et tous les systèmes de ce type) peut être contourné simplement en appliquant un filtre de hashtag à n’importe quelle image.

Le filtre envoie un hashtag alternatif aux systèmes de détection et cela les a trompés 99,9% du temps. De plus, le filtre est pratiquement invisible, de sorte que les images apparaissent inchangées à l’œil humain. Les chercheurs ont également découvert que la seule contre-mesure qu’Apple pourrait prendre serait d’augmenter la taille du hachage (de 64 à 256), mais une telle décision augmente considérablement les faux positifs tout en codant davantage de données utilisateur dans des images, ce qui pose de sérieux problèmes de confidentialité.

« Nos résultats jettent un doute sérieux sur la robustesse aux attaques de type boîte noire de l’analyse perceptive côté client basée sur le hachage telle qu’elle est actuellement proposée, expliquent les chercheurs. Les seuils de détection nécessaires pour rendre l’attaque plus difficile sont probablement très élevés, nécessitant probablement plus d’un milliard d’images sont signalées à tort quotidiennement, ce qui soulève de graves problèmes de confidentialité.

Le CSAM a déjà été largement condamné. En août, Edward Snowden a déclaré qu’il redéfinirait en permanence ce qui vous appartient et ce qui leur appartient, soulignant que les gouvernements pourraient forcer Apple à rechercher toutes les images qu’ils souhaitent.

Je ne peux penser à aucune autre entreprise qui a si fièrement et si publiquement distribué des logiciels espions sur ses propres appareils… -une politique d’entreprise trop flexible, ce que les gouvernements ne comprennent que trop bien.

Après avoir d’abord tenté de défendre le CSAM comme mal communiqué, Apple a par la suite repoussé sa sortie en masse sur iPhones et iPads jusqu’en 2022. Suite à ces dernières révélations, cependant, des questions doivent être posées sur la viabilité du système dans son ensemble.

J’ai contacté Apple pour commenter ces résultats et je mettrai à jour ce message quand/si je reçois une réponse.

___

Suivez Gordon sur Facebook

Plus sur Forbes

La puce Apple Tic-Tac provoque des maux de tête lors de la réparation de l’iPhone 13

Alerte iPhone : Apple laisse 2 piratages Zero-Day dans iOS 15.1

.

www.actusduweb.com
Suivez Actusduweb sur Google News


Recevez des mises à jour en temps réel directement sur votre appareil, abonnez-vous maintenant.

commentaires

Ce site utilise des cookies pour améliorer votre expérience. Nous supposerons que cela vous convient, mais vous pouvez vous désinscrire si vous le souhaitez. J'accepte Lire la suite