Pourquoi l’IoT devrait devenir « l’internet de la transparence »

Les algorithmes sont essentiels à l’IoT.

Les appareils connectés pilotent automatiquement nos voitures ; contrôler la lumière, la chaleur et la sécurité de notre maison ; et magasinez pour nous. Les appareils portables surveillent nos fréquences cardiaques et nos niveaux d’oxygène, nous disent quand nous lever et comment nous déplacer et conservent des journaux détaillés sur nos allées et venues. Les villes intelligentes, alimentées par une multitude d’appareils et d’applications IoT, contrôlent la vie de millions de personnes dans le monde en dirigeant le trafic, l’assainissement, l’administration publique et la sécurité. La portée et l’influence de l’IdO dans notre vie quotidienne seraient inconcevables sans algorithmes, mais que savons-nous de la fonction, de la logique et de la sécurité algorithmiques ?

La plupart des algorithmes fonctionnent à des vitesses et des complexités de calcul qui empêchent un examen humain efficace. Ils travaillent dans une boîte noire. De plus, la plupart des algorithmes d’application IoT sont propriétaires et fonctionnent dans une double boîte noire. Ce statu quo peut être acceptable si les résultats sont positifs et que les algorithmes ne nuisent pas. Malheureusement, ce n’est pas toujours le cas.

Lorsque les algorithmes de la boîte noire se trompent et causent des dommages matériels, physiques, sociétaux ou économiques, ils nuisent également au mouvement IoT. De telles erreurs ébranlent la confiance sociale et politique dont l’industrie a besoin pour assurer l’adoption plus large des appareils intelligents, ce qui est essentiel pour faire avancer le domaine.

Les algorithmes opaques peuvent être coûteux, voire mortels

Les algorithmes de boîte noire peuvent entraîner d’importants problèmes réels. Par exemple, il y a un tronçon de route quelconque dans la vallée de Yosemite, en Californie, qui confond constamment les voitures autonomes, et à l’heure actuelle, nous n’avons toujours pas de réponse quant à la raison. La route ouverte est naturellement pleine de risques et de dangers, mais qu’en est-il de votre propre maison ? Les assistants intelligents sont là pour écouter votre voix et répondre à vos souhaits et commandes concernant les achats, le chauffage, la sécurité et à peu près toute autre fonctionnalité de la maison qui se prête à l’automatisation. Cependant, que se passe-t-il lorsque l’assistant intelligent commence à faire l’idiot et ne vous écoute pas, mais la télévision ?

Il y a une anecdote qui circule sur le Web à propos de nombreux assistants domestiques intelligents qui lancent des achats en ligne non désirés parce que Jim Patton, hôte de CW6 News de San Diego, a prononcé la phrase « Alexa m’a commandé une maison de poupée ». Que cela se soit produit à cette grande échelle est hors de propos. Le vrai problème est que l’incident de la maison de poupée semble très plausible et, encore une fois, soulève des doutes sur le fonctionnement interne des appareils IoT auxquels nous avons confié une grande partie de notre vie quotidienne, de notre confort et de notre sécurité.

Du point de vue de l’IdO, les dommages immatériels de tels événements sont considérables. Lorsqu’un véhicule autonome tombe en panne, tous les véhicules autonomes en pâtissent. Lorsqu’un assistant domestique intelligent fait des choses stupides, l’intelligence de tous les assistants domestiques intelligents est remise en question.

L’éléphant de données dans la pièce

Chaque fois qu’un algorithme prend une mauvaise décision, ses fournisseurs promettent une enquête approfondie et une correction rapide. Cependant, en raison de la nature exclusive et à but lucratif de tous ces algorithmes, les autorités et le grand public n’ont aucun moyen de vérifier quelles améliorations ont eu lieu. En fin de compte, nous devons prendre les entreprises au mot. Les récidives rendent cette question difficile.

L’une des principales raisons pour lesquelles les entreprises ne divulguent pas le fonctionnement interne de leurs algorithmes – dans la mesure où elles peuvent les comprendre – est qu’elles ne veulent pas montrer toutes les opérations qu’elles effectuent avec nos données. Les voitures autonomes conservent des journaux détaillés de chaque trajet. Les assistants à domicile suivent les activités dans la maison ; enregistrer les paramètres de température, de lumière et de volume ; et gardez une liste de courses constamment mise à jour. Toutes ces informations personnellement identifiables sont collectées de manière centralisée pour permettre aux algorithmes d’apprendre et de diffuser les informations dans des publicités ciblées, des profils de consommateurs détaillés, des coups de pouce comportementaux et une manipulation pure et simple.

Repensez à l’époque où Cambridge Analytica a effectivement militarisé les informations de profil des médias sociaux de 87 millions d’utilisateurs sans méfiance pour désinformer les électeurs et aurait pu aider à renverser toute une élection présidentielle américaine. Si votre liste d’amis et certains groupes de discussion en ligne suffisent à un algorithme pour identifier les meilleurs moyens d’influencer vos croyances et vos comportements, quel niveau de manipulation plus profond et plus fort les journaux détaillés de votre fréquence cardiaque, de vos mouvements et de vos habitudes de sommeil peuvent-ils permettre ?

Les entreprises ont tout intérêt à garder les algorithmes opaques, car cela leur permet de les adapter à leurs objectifs à but lucratif et d’accumuler d’énormes bases de données centralisées de données utilisateur sensibles en cours de route. Alors que de plus en plus d’utilisateurs prennent conscience de cette réalisation douloureuse mais nécessaire, l’adoption et le développement de l’IoT approchent lentement d’un arrêt brutal, et le scepticisme construit une montagne devant le progrès algorithmique qui n’a jamais été. Que devons-nous faire?

La transition vers « l’internet de la transparence »

L’accent le plus urgent devrait être de rendre ce que font les algorithmes plus compréhensible et transparent. Pour maximiser la confiance et éliminer les effets néfastes de l’opacité algorithmique, l’IoT doit devenir « l’internet de la transparence ». L’industrie peut créer de la transparence en dissociant l’IA de la collecte de données centralisée et en rendant autant d’algorithmes open source que possible. Des technologies telles que l’apprentissage fédéré masqué et l’IA de pointe permettent ces étapes positives. Nous avons besoin de la volonté de les poursuivre. Ce ne sera pas facile, et certaines grandes entreprises technologiques ne tomberont pas sans se battre, mais nous serons tous mieux lotis de l’autre côté.

A propos de l’auteur

Leif-Nissen Lundbk, PhD, est co-fondateur et PDG de Xayn. Ses travaux portent principalement sur les algorithmes et les applications pour l’IA préservant la vie privée. En 2017, il a fondé la société de technologie de confidentialité avec le professeur et directeur de la recherche Michael Huth et le directeur de l’exploitation Felix Hahmann. L’application mobile Xayn est un navigateur privé de recherche et de découverte pour Internet, combinant un moteur de recherche, un flux de découverte et un navigateur mobile axé sur la confidentialité, la personnalisation et la conception intuitive. Lauréate du premier concours d’innovation Porsche, la société d’intelligence artificielle basée à Berlin a travaillé avec Porsche, Daimler, Deutsche Bahn et Siemens.

www.actusduweb.com
Suivez Actusduweb sur Google News


Ce site utilise des cookies pour améliorer votre expérience. Nous supposerons que cela vous convient, mais vous pouvez vous désinscrire si vous le souhaitez. J'accepte Lire la suite