#image_title

L’IA malveillante peut-elle menacer la cybersécurité ? | Intégré

Nous en avons tous plaisanté à un moment donné : et si l’IA devenait un voyou et conquérait le monde avec toutes les informations que nous lui avons fournies ? Stephen Hawking lui-même a noté que l’IA finirait par essayer de tout reproduire jusqu’à ce qu’elle soit identique à un humain, nous remplaçant complètement. Et malgré tous les conditionnements auxquels nous la soumettons pour la maîtriser, il est toujours possible pour l’IA de devenir malveillante.

Qu’est-ce que l’IA malveillante ?

Rogue AI est un algorithme d’intelligence artificielle qui commet des activités potentiellement dangereuses. Le système a été rendu populaire dans la science-fiction car des êtres artificiels qui prennent conscience d’eux-mêmes contournent ce pour quoi ils étaient initialement programmés. Ce type d’IA se comporte de manière imprévisible et malveillante, prenant des décisions inattendues qui ne profiteraient pas nécessairement à son propriétaire. Une fois le pool de données corrompu, l’IA malveillante peut présenter des caractéristiques telles que l’autonomie, le manque de responsabilité et peut même s’aggraver avec le temps.

L’IA est encore en phase de développement et de nombreuses industries s’en servent pour automatiser et simplifier différents processus. Il est particulièrement utilisé dans la cyber-sécurité pour aider à détecter les menaces plus rapidement. Mais contrairement aux humains, l’IA manque de l’empathie qui l’empêche de s’engager sur la mauvaise voie. Cela peut conduire à un phénomène appelé AI gone rogue.

L’intelligence humaine essaie toujours de contrôler cet élément, mais nous ne pouvons nous empêcher de nous demander : deviendra-t-elle un jour un élément menace de cybersécurité? Si oui, comment les entreprises devraient-elles atténuer ce phénomène ?

lectures complémentairesPourquoi nous ne pouvons pas ignorer le côté obscur de l’IA

Comment l’IA devient-elle malveillante ?

Quand IA a été créé, cela a été fait avec un grand objectif en tête : aider l’humanité à accomplir ses tâches plus rapidement, comme un deuxième cerveau. Dans cette mesure, nous avons stocké des quantités importantes d’informations dans sa base de données, la dotant de quelque chose qui pourrait être à la fois une bénédiction et une arme : la connaissance. Lorsque ces connaissances sont utilisées à mauvais escient, l’IA devient malveillante.

Cela peut se produire de plusieurs manières. Cela peut se produire lorsqu’une personne altère les données avec de mauvaises intentions, en particulier à ses débuts. Si elle n’est pas correctement encadrée, l’IA ne saura pas utiliser ces données et pourrait devenir autonome. Enfin et surtout, si les pools d’informations lui donnent suffisamment d’autonomie pour fixer ses propres objectifs, il peut prendre des décisions basées sur des données qui ne tiennent pas nécessairement compte du bien-être humain.

Un exemple populaire d’IA devenue voyou est le chatbot de Microsoft, Tay. Moins de quelques heures après sa sortie, le le pool de données a été falsifié par les utilisateurs de Twitter, apprenant à l’IA à être raciste. Peu de temps après, Tay citait Hitler et affichait un comportement raciste. Microsoft arrêter le projetréalisant qu’il était devenu voyou.

Pourquoi l’IA malveillante pourrait-elle être dangereuse ?

Lorsqu’elle est capturée et arrêtée à ses débuts, une IA malveillante peut être empêchée de causer de graves dégâts. Cela est particulièrement vrai si le but pour lequel il a été conçu est relativement inoffensif, comme le chatbot Tay. Cependant, lorsqu’elle est utilisée à des fins de sécurité, l’IA qui devient malveillante peut avoir des effets dévastateurs.

Alors que cette faille de l’IA devient de plus en plus connue, les pirates ont déjà commencé tenter de faire dérailler les systèmes d’IA. À chaque faille de sécurité, des données peuvent être divulguées dans l’IA jusqu’à ce qu’elle soit entraînée à ignorer les instructions d’origine. Cela pourrait conduire à de la désinformation et à la divulgation de détails qui autrement auraient dû rester confidentiels.

L’IA malveillante peut également être dangereuse lorsqu’on lui confie des responsabilités importantes sans être correctement surveillée. Un modèle négligé peut formuler une hypothèse erronée dans un domaine délicat, comme la guerre. Par exemple, lorsqu’elle est utilisée à des fins militaires, une IA malveillante pourrait décider que la meilleure façon d’atteindre un objectif est de créer des sous-ensembles alternatifs. Dans ses tentatives d’obtenir des données des équipes ennemies, il pourrait décider de fermer ou de violer des infrastructures essentielles telles que des hôpitaux, entraînant ainsi des dégâts civils.

Les systèmes d’IA extérieurs à la direction de l’entreprise pourraient également être entraînés par des individus ayant l’intention malveillante de mener des cyberattaques. Les pirates pourraient utiliser des outils d’IA pour renforcer leurs capacités d’espionnage, surtout à ses débuts, car il pourrait rapidement découvrir une faiblesse dans son système de défense. IA chatbots pourraient être formés pour lancer des campagnes de phishing, fournissant des informations malveillantes ou incorrectes pour tromper.

lecture recommandéeDevriez-vous embaucher un directeur de l’IA ?

La menace peut-elle être évitée ?

Le principal problème des outils super-intelligents est qu’ils assez incontrôlable. Tant que les données peuvent être falsifiées, de manière malveillante ou par erreur humaine, la menace que l’IA absorbe et utilise ces données est réelle. Pour cette raison, l’IA malveillante ne peut pas être entièrement empêchée, quelle que soit sa direction. Cependant, cela peut être atténué avec les bonnes actions.

Une façon d’atténuer les effets de l’IA malveillante et d’empêcher qu’elle ne se produise consiste à évaluer le système de manière cohérente. Les conditions connues des mauvais acteurs doivent être identifiées avant de lancer et de mettre à jour l’algorithme pour les éviter. Les utilisateurs doivent également être formés à l’utilisation de l’IA de manière responsable et éthiqueempêchant les biais de rendre le système voyou.

L’IA malveillante ne peut pas être entièrement évitée, quelle que soit sa direction. Cependant, cela peut être atténué avec les bonnes actions.

Pour l’essentiel, l’intelligence humaine est essentielle pour empêcher l’IA de devenir malveillante. Des alertes et des politiques doivent être définies pour détecter les comportements potentiellement anormaux et répondre aux incidents en fonction de leur gravité. La formation à l’IA doit être supervisée à chaque étape du développement, et les humains doivent également rester chargés d’arrêter le système si nécessaire.

Même si nous n’avons pas encore atteint de scénarios apocalyptiques dans lesquels une IA malveillante pourrait causer des ravages à l’échelle mondiale, le potentiel demeure. Avec une formation incorrecte ou malveillante, l’IA peut prendre des décisions qui ne profitent pas à l’industrie qu’elle est censée protéger.

www.actusduweb.com
Suivez Actusduweb sur Google News


Ce site utilise des cookies pour améliorer votre expérience. Nous supposerons que cela vous convient, mais vous pouvez vous désinscrire si vous le souhaitez. J'accepte Lire la suite