L’intelligence artificielle n’est peut-être pas la solution pour arrêter la propagation des fausses nouvelles

Recevez des mises à jour en temps réel directement sur votre appareil, abonnez-vous maintenant.

La désinformation a été utilisée dans la guerre et la stratégie militaire au fil du temps. Mais il est indéniablement intensifié par l’utilisation des technologies intelligentes et des médias sociaux. En effet, ces technologies de communication offrent un moyen relativement peu coûteux et peu difficile de diffuser des informations pratiquement n’importe où.

La question à un million de dollars est alors : ce problème d’échelle et de portée produit par la technologie peut-il également être résolu à l’aide de la technologie ?

En effet, le développement continu de nouvelles solutions technologiques, telles que l’intelligence artificielle (IA), peut apporter une partie de la solution.

Les entreprises technologiques et les entreprises de médias sociaux travaillent à la détection automatique des fausses nouvelles grâce au traitement du langage naturel, à l’apprentissage automatique et à l’analyse de réseau. L’idée est qu’un algorithme identifiera les informations comme de fausses nouvelles et les classera plus bas pour réduire la probabilité que les utilisateurs les rencontrent.

Répétition et exposition

D’un point de vue psychologique, l’exposition répétée au même élément d’information rend plus probable pour quelqu’un d’y croire. Lorsque l’IA détecte la désinformation et réduit la fréquence de sa circulation, cela peut briser le cycle des modèles de consommation d’informations renforcés.

un homme plus âgé boit dans une tasse de thé assis devant un ordinateur portable
L’intelligence artificielle peut aider à filtrer les fausses nouvelles.
(Shutterstock)

Cependant, la détection de l’IA reste encore peu fiable. Premièrement, la détection actuelle est basée sur l’évaluation du texte (contenu) et de son réseau social pour déterminer sa crédibilité. Malgré la détermination de l’origine des sources et du mode de diffusion des fausses nouvelles, le problème fondamental réside dans la manière dont l’IA vérifie la nature réelle du contenu.

Théoriquement, si la quantité de données d’entraînement est suffisante, le modèle de classification soutenu par l’IA serait capable d’interpréter si un article contient ou non de fausses nouvelles. Pourtant, la réalité est que faire de telles distinctions nécessite des connaissances politiques, culturelles et sociales préalables, ou du bon sens, qui manquent encore aux algorithmes de traitement du langage naturel.



Lire la suite : Un expert en IA explique pourquoi il est difficile de donner aux ordinateurs quelque chose que vous tenez pour acquis : le bon sens


De plus, les fausses nouvelles peuvent être très nuancées lorsqu’elles sont délibérément modifiées pour apparaître comme de vraies nouvelles mais contenant des informations fausses ou manipulatrices, comme le montre une étude pré-imprimée.

Partenariats homme-IA

L’analyse de la classification est également fortement influencée par le thème que l’IA différencie souvent les sujets, plutôt que véritablement le contenu du problème pour déterminer son authenticité. Par exemple, les articles liés à COVID-19 sont plus susceptibles d’être étiquetés comme de fausses nouvelles que d’autres sujets.

Une solution serait d’employer des personnes pour travailler aux côtés de l’IA pour vérifier l’authenticité des informations. Par exemple, en 2018, le ministère lituanien de la Défense a développé un programme d’IA qui signale la désinformation dans les deux minutes suivant sa publication et envoie ces rapports à des spécialistes humains pour une analyse plus approfondie.

Une approche similaire pourrait être adoptée au Canada en créant une unité ou un département spécial national pour lutter contre la désinformation, ou en soutenant les groupes de réflexion, les universités et d’autres tiers pour rechercher des solutions d’IA pour les fausses nouvelles.

Éviter la censure

Le contrôle de la diffusion de fausses informations peut, dans certains cas, être considéré comme de la censure et une menace pour la liberté de parole et d’expression. Même un humain peut avoir du mal à juger si une information est fausse ou non. Et donc peut-être que la plus grande question est : qui et quoi déterminent la définition des fausses nouvelles ? Comment pouvons-nous nous assurer que les filtres d’IA ne nous entraîneront pas dans le piège des faux positifs et étiqueteront à tort les informations comme fausses en raison des données associées ?

Un système d’IA pour identifier les fausses nouvelles peut avoir des applications sinistres. Les gouvernements autoritaires, par exemple, peuvent utiliser l’IA comme excuse pour justifier la suppression de tout article ou pour poursuivre des individus qui ne sont pas en faveur des autorités. Ainsi, tout déploiement d’IA et toute loi ou mesure pertinente qui émerge de son application nécessitera un système transparent avec un tiers pour le surveiller.

Les défis futurs demeurent, car la désinformation, en particulier lorsqu’elle est associée à une intervention étrangère, est un problème permanent. Un algorithme inventé aujourd’hui pourrait ne pas être en mesure de détecter de futures fausses nouvelles.

Un reportage de la BBC sur les dangers des contrefaçons profondes.

Par exemple, les contrefaçons profondes qui sont des manipulations numériques très réalistes et difficiles à détecter de l’audio ou de la vidéo sont susceptibles de jouer un rôle plus important dans la future guerre de l’information. Et la désinformation diffusée via des applications de messagerie telles que WhatsApp et Signal devient de plus en plus difficile à suivre et à intercepter en raison du cryptage de bout en bout.

Une étude récente a montré que 50 pour cent des répondants canadiens recevaient régulièrement de fausses nouvelles via des applications de messagerie privée. Pour réglementer cela, il faudrait trouver un équilibre entre la vie privée, la sécurité individuelle et la répression de la désinformation.

S’il vaut vraiment la peine d’allouer des ressources à la lutte contre la désinformation à l’aide de l’IA, la prudence et la transparence sont nécessaires compte tenu des ramifications potentielles. Les nouvelles solutions technologiques, malheureusement, ne sont peut-être pas une solution miracle.

www.actusduweb.com
Suivez Actusduweb sur Google News


Recevez des mises à jour en temps réel directement sur votre appareil, abonnez-vous maintenant.

commentaires

Ce site utilise des cookies pour améliorer votre expérience. Nous supposerons que cela vous convient, mais vous pouvez vous désinscrire si vous le souhaitez. J'accepte Lire la suite