Un Roomba a photographié une femme aux toilettes et cela s’est retrouvé sur les réseaux sociaux

Une femme qui s’est inscrite pour aider à tester une nouvelle version d’un robot aspirateur ne s’attendait pas à ce que des photos d’elle prises sur les toilettes se retrouvent sur les réseaux sociaux. Mais grâce à une fuite d’un tiers, c’est ce qui s’est passé.

L’essai en 2020 s’est déroulé de travers après qu’iRobot, qui produit des aspirateurs robotiques autonomes Roomba, a demandé à des employés et à des bénévoles payés d’aider l’entreprise à recueillir des données pour aider à améliorer un nouveau modèle de machines en les utilisant chez eux. iRobot a déclaré qu’il a informé les participants de la manière dont les données seraient utilisées et a même apposé les modèles avec des onglets d’enregistrement dans les processus.

Mais grâce à une fuite chez un partenaire extérieur avec lequel iRobot a depuis rompu les liens et enquête, des photos privées se sont retrouvées sur les réseaux sociaux.

Les machines ne sont pas les mêmes que les modèles de production qui se trouvent maintenant dans les foyers des consommateurs, a ajouté la société, affirmant qu’elle prend très au sérieux la confidentialité et la sécurité des données, non seulement avec ses clients, mais dans tous les aspects de son activité, y compris la recherche et le développement.

Méfiance croissante

Alors que l’IA continue de se développer à la fois dans les secteurs professionnel et privé, la méfiance à l’égard de la technologie a également augmenté en raison de failles de sécurité et d’un manque de compréhension.

Une étude réalisée en 2022 par le Forum économique mondial a montré que seulement la moitié des personnes interrogées faisaient confiance aux entreprises qui utilisent l’IA autant qu’elles font confiance aux entreprises qui ne le font pas.

Il existe cependant une corrélation directe entre les personnes qui font confiance à l’IA et celles qui croient comprendre la technologie.

C’est la clé pour améliorer l’expérience et la sécurité des utilisateurs à l’avenir, a déclaré Mhairi Aitken, chercheur en éthique à l’Institut Alan Turing, l’établissement national britannique pour la science des données et l’intelligence artificielle.

Quand les gens pensent à l’IA, ils pensent aux robots et au Terminator ; ils pensent à la technologie avec conscience et sensibilité, a déclaré Aitken.

L’IA n’a pas ça. Il est programmé pour faire un travail, et c’est tout ce qu’il fait. Parfois, c’est une tâche très niche. La plupart du temps, lorsque nous parlons d’IA, nous utilisons l’exemple du tout-petit : que l’IA doit tout apprendre par un humain. C’est le cas, mais l’IA ne fait que ce que vous lui dites de faire. Contrairement à un humain, il ne fait pas de crises de colère et ne décide pas ce qu’il veut essayer à la place.

L’IA est largement utilisée dans la vie quotidienne du public, qu’il s’agisse de décider quels e-mails doivent être placés dans vos dossiers de spam ou que votre téléphone réponde à une question avec son assistant personnel intégré.

Pourtant, ce sont les produits de divertissement comme les haut-parleurs intelligents dont les gens ne se rendent souvent pas compte qu’ils utilisent l’intelligence artificielle, a déclaré Aitken, et ceux-ci pourraient empiéter sur votre vie privée.

Aitken a ajouté, Ce n’est pas comme si vos haut-parleurs écoutent ; ils ne sont pas. Ce qu’ils pourraient faire, c’est relever des modèles de mots, puis les renvoyer à un développeur situé dans un endroit lointain qui travaille sur un nouveau produit ou service à lancer.

Certaines personnes ne s’en soucient pas. Certaines personnes le font, et si vous êtes l’une de ces personnes, il est important de savoir où vous avez ces produits dans votre maison ; peut-être que vous ne le voulez pas dans votre salle de bain ou votre chambre. Il ne s’agit pas de savoir si vous faites confiance à l’IA, c’est de savoir si vous faites confiance aux personnes derrière elle.

L’IA doit-elle être réglementée ?

Ecrire dans le Financial Timesla directrice des politiques internationales du Cyber ​​Policy Center de l’Université de Stanford, Marietje Schaake, a déclaré qu’aux États-Unis, l’espoir de réglementer l’IA semble une mission impossible, ajoutant que le paysage technologique sera remarquablement similaire d’ici la fin de 2023.

Les perspectives sont légèrement plus optimistes pour l’Europe après que l’Union européenne a annoncé l’année dernière qu’elle créerait une norme générale pour réglementer ou interdire certaines utilisations de l’IA.

Des problèmes comme la violation de Roomba sont un exemple de la raison pour laquelle la législation doit être proactive, et non réactive, a ajouté Aitken : Pour le moment, nous attendions que les choses se produisent, puis nous agissons à partir de là. Nous devons prendre de l’avance et savoir où en sera l’IA dans cinq ans.

Cela nécessiterait cependant l’adhésion de concurrents technologiques du monde entier. Aitken dit que la meilleure façon de lutter contre cela est d’attirer des personnes qualifiées dans les emplois de réglementation publique qui auront les connaissances nécessaires pour analyser ce qui se passe en bout de ligne.

Elle a ajouté que la sensibilisation à l’IA ne dépend pas seulement des consommateurs : nous savons que les conditions générales [terms and conditions] ne sont pas écrits de manière accessible, la plupart des gens ne les lisent même pas et c’est intentionnel. Ils doivent être présentés de manière à ce que les gens puissent comprendre afin qu’ils sachent à quoi ils s’inscrivent.

Apprenez à naviguer et à renforcer la confiance dans votre entreprise avec The Trust Factor, un bulletin hebdomadaire examinant ce dont les dirigeants ont besoin pour réussir. Inscrivez-vous ici.

www.actusduweb.com
Suivez Actusduweb sur Google News


Laisser un commentaire

Votre adresse email ne sera pas publiée.

Ce site utilise des cookies pour améliorer votre expérience. Nous supposerons que cela vous convient, mais vous pouvez vous désinscrire si vous le souhaitez. J'accepte Lire la suite