Chatbots, deepfakes et clones de voix : la tromperie de l’IA à vendre

Vous avez peut-être entendu parler de la théorie de la simulation, la notion que rien n’est réel et que tout faisait partie d’un programme informatique géant. Supposons au moins pour la longueur de ce billet de blog que cette notion est fausse. Néanmoins, nous nous dirigeons peut-être vers un avenir dans lequel une partie substantielle de ce que nous voyons, entendons et lisons est une simulation générée par ordinateur. Nous gardons toujours le vrai ici à la FTC, mais que se passe-t-il quand aucun de nous ne peut distinguer le vrai du faux ?

Dans un récent article de blog, nous avons expliqué comment le terme IA peut être utilisé comme argument de vente trompeur pour de nouveaux produits et services. Appelons ça le fausse IA problème. Le sujet d’aujourd’hui est l’utilisation de l’IA derrière l’écran pour créer ou propager la tromperie. Appelons cela le Faux IA problème. Ce dernier est une menace émergente plus profonde à laquelle les entreprises de l’écosystème numérique doivent faire face. Maintenant.

La plupart d’entre nous passent beaucoup de temps à regarder des choses sur un appareil. Grâce aux outils d’intelligence artificielle qui créent des médias synthétiques ou génèrent du contenu, un pourcentage croissant de ce que l’on regarde n’est pas authentique, et il devient de plus en plus difficile de faire la différence. Et tout comme ces outils d’IA deviennent plus avancés, ils deviennent également plus faciles d’accès et d’utilisation. Certains de ces outils peuvent avoir des utilisations bénéfiques, mais les escrocs peuvent également les utiliser pour causer des dommages généralisés.

L’IA générative et les médias synthétiques sont des termes familiers utilisés pour désigner les chatbots développés à partir de grands modèles de langage et la technologie qui simule l’activité humaine, comme les logiciels qui créent des vidéos deepfake et des clones de voix. Il existe déjà des preuves que les fraudeurs peuvent utiliser ces outils pour générer rapidement et à moindre coût des contenus réalistes mais faux, en les diffusant auprès de grands groupes ou en ciblant certaines communautés ou des individus spécifiques. Ils peuvent utiliser des chatbots pour générer des e-mails de harponnage, de faux sites Web, de faux messages, de faux profils et de faux avis de consommateurs, ou pour aider à créer des logiciels malveillants, des rançongiciels et des attaques par injection rapide. Ils peuvent utiliser des deepfakes et des clones de voix pour faciliter les escroqueries par des imposteurs, l’extorsion et la fraude financière. Et c’est bien une liste non exhaustive.

L’interdiction de conduite trompeuse ou déloyale de la loi FTC peut s’appliquer si vous fabriquez, vendez ou utilisez un outil qui est effectivement conçu pour tromper même si ce n’est pas son but prévu ou unique. Alors considérez :

Devriez-vous même le fabriquer ou le vendre? Si vous développez ou proposez un média synthétique ou un produit d’IA générative, envisagez dès le stade de la conception et par la suite les manières raisonnablement prévisibles et souvent évidentes dont il pourrait être détourné à des fins frauduleuses ou causer d’autres dommages. Ensuite, demandez-vous si ces risques sont suffisamment élevés pour ne pas offrir le produit du tout. C’est devenu un mème, mais ici, paraphrasez bien le Dr Ian Malcolm, le personnage de Jeff Goldblum dans Jurassic Park, qui a averti les dirigeants d’être si préoccupés par la question de savoir s’ils pourrait construire quelque chose qu’ils n’ont pas arrêté de penser s’ils devrait.

Atténuez-vous efficacement les risques ? Si vous décidez de fabriquer ou d’offrir un tel produit, prenez toutes les précautions raisonnables avant il arrive sur le marché. La FTC a poursuivi les entreprises qui ont diffusé des technologies potentiellement dangereuses sans prendre de mesures raisonnables pour prévenir les dommages aux consommateurs. Le simple fait d’avertir vos clients d’une utilisation abusive ou de leur dire de divulguer n’est guère suffisant pour dissuader les mauvais acteurs. Vos mesures de dissuasion doivent être des fonctionnalités durables et intégrées et non des corrections de bugs ou des fonctionnalités facultatives que des tiers peuvent miner via une modification ou une suppression. Si votre outil est destiné à aider les gens, demandez-vous également s’il a vraiment besoin d’imiter les humains ou s’il peut être tout aussi efficace pour regarder, parler, parler ou agir comme un bot.

Comptez-vous trop sur la détection post-release ? Les chercheurs continuent d’améliorer les méthodes de détection des vidéos, des images et de l’audio générés par l’IA. Reconnaître le texte généré par l’IA est plus difficile. Mais ces chercheurs sont dans une course aux armements avec les entreprises développant les outils d’IA générative, et les fraudeurs utilisant ces outils auront souvent évolué au moment où quelqu’un détectera leur faux contenu. De toute façon, il ne devrait pas incomber aux consommateurs de déterminer si un outil d’IA générative est utilisé pour les arnaquer.

Induisez-vous les gens en erreur sur ce qu’ils voient, entendent ou lisent ? Si vous êtes un annonceur, vous pourriez être tenté d’utiliser certains de ces outils pour vendre à peu près n’importe quoi. Les deepfakes de célébrités sont déjà courants, par exemple, et apparaissent dans les publicités. Nous avons précédemment averti les entreprises que tromper les consommateurs via des sosies, tels que de faux profils de rencontres, de faux abonnés, des deepfakes ou des chatbots, pourrait entraîner et a en fait entraîné des mesures d’application de la loi par la FTC.

Bien que cet article se concentre sur la fraude et la tromperie, ces nouveaux outils d’IA entraînent une foule d’autres préoccupations sérieuses, telles que les dommages potentiels aux enfants, aux adolescents et aux autres populations à risque lorsqu’ils interagissent avec ou sont soumis à ces outils. Le personnel de la Commission suit ces préoccupations de près alors que les entreprises continuent de précipiter ces produits sur le marché et que les interactions homme-ordinateur continuent de prendre des tournants nouveaux et peut-être dangereux.

www.actusduweb.com
Suivez Actusduweb sur Google News


Ce site utilise des cookies pour améliorer votre expérience. Nous supposerons que cela vous convient, mais vous pouvez vous désinscrire si vous le souhaitez. J'accepteLire la suite