Gérer avec succès les risques liés à la sécurité et à la confidentialité de l’intelligence artificielle
L’intelligence artificielle (IA) est un sujet brûlant dans tous les segments de l’économie, alors que les entreprises évaluent comment elles peuvent tirer parti des augmentations potentielles d’efficacité et de productivité et prendre des décisions plus rapides et plus éclairées. Pour autant, les organisations ne peuvent pas perdre de vue les risques potentiels liés à l’IA.
Il n’est pas surprenant que l’utilisation de l’IA se développe rapidement sur le marché intermédiaire, à mesure que davantage de solutions deviennent accessibles et que les entreprises découvrent de nouveaux cas d’utilisation. Dans un prochain rapport de RSM US LLP qui détaille l’utilisation de l’IA sur le marché intermédiaire, plus des trois quarts des personnes interrogées (78 %) déclarent que leurs organisations utilisent l’IA, de manière formelle ou informelle, dans leurs pratiques commerciales. Soixante-dix-sept pour cent déclarent utiliser l’IA générative.
L’IA générative prend de l’ampleur au sein des entreprises de taille moyenne, puisque 74 % des dirigeants du marché intermédiaire déclarent disposer d’un budget dédié à l’IA générative et 85 % déclarent que la technologie a eu une influence plus positive que prévu sur leur organisation.
Malgré cet impact positif, les entreprises comprennent les risques potentiels liés à la technologie émergente. Les données de l’enquête suggèrent que certaines entreprises qui ont adopté l’IA générative ont des préoccupations en matière de sécurité des données et de confidentialité concernant cette technologie. De plus, parmi ceux qui n’envisagent pas actuellement d’utiliser l’IA générative, 46 % citent la sécurité et la confidentialité des données comme principale raison.
Bon nombre des risques perçus lors de la mise en œuvre de l’IA générative sont ancrés dans des idées fausses courantes sur la technologie. Premièrement, beaucoup ont l’impression que chaque élément de données envoyé à un grand modèle de langage peut être consulté par une autre partie et conduire à une vulnérabilité ou à une exposition.
Le directeur du RSM, Dave Mahoney, a détaillé quelques scénarios potentiels. Si un utilisateur télécharge un document sur un chatbot public à grand modèle de langage comme ChatGPT, Gemini ou d’autres options populaires, alors oui, l’entreprise a perdu le contrôle de ce document et il est soumis aux conditions de confidentialité des fournisseurs d’IA, dit-il.
Le même scénario peut se produire avec des invites, poursuit-il. Si quelqu’un prend une feuille de calcul contenant des informations sensibles et l’envoie dans une invite, ces données pourraient être menacées.
Si les informations doivent rester confidentielles, les entreprises peuvent utiliser des interfaces de programmation d’applications (API) qui n’utilisent pas de données pour former des modèles. Mais si un utilisateur partage des données sensibles dans une application open source, l’entreprise abandonne le contrôle.
Essentiellement, les entreprises doivent disposer de contrôles efficaces sur les informations sensibles pour garantir qu’elles ne sont pas partagées avec des personnes qui ne devraient pas y avoir accès. Mais ce n’est pas un nouveau concept, c’est juste une nouvelle application.
Il ne s’agit donc pas d’un simple « Hé, si vous utilisez l’IA, vos données sont volées », explique Mahoney. C’est la même chose qu’un utilisateur envoyant par courrier électronique des données sensibles en dehors de l’organisation ou les partageant accidentellement avec un client qui ne devrait pas y avoir accès. Ce n’est pas un problème d’IA. C’est un problème de perte de données qui existait déjà.
En plus de ces risques, les outils et applications d’IA peuvent présenter d’autres menaces uniques. Par exemple, si une entreprise du marché intermédiaire souhaite créer un grand modèle de langage entièrement activé qui nécessite des informations et des commentaires de niveau expert, il sera probablement dérivé d’un modèle similaire créé par quelqu’un d’autre.
Que le modèle soit hébergé chez un fournisseur ou construit en interne, il est soumis à des risques d’accès. Les entreprises ne souhaitent pas que leurs informations soient exposées, surtout si elles opèrent dans un domaine qui traite régulièrement des données sensibles, comme les secteurs financier, juridique ou de la santé.
Cependant, des pratiques et des techniques permettant de créer et de maintenir des modèles en toute sécurité sont disponibles. Les entreprises doivent réfléchir à l’endroit où se trouve le modèle, aux informations auxquelles il peut avoir accès et si quelque chose qui s’est produit lors du développement ou de l’exploitation de ce modèle pourrait entraîner un risque supplémentaire. Si l’entreprise ne contrôle pas et n’est pas propriétaire du modèle, le fournisseur pourrait alors augmenter le niveau de risque.
Je suis d’accord que c’est une préoccupation, dit Mahoney. Mais cela nécessite simplement de faire vos devoirs et de comprendre comment fonctionne la technologie, ce que vous achetez et comment elle fonctionne à un niveau fondamental.
Dans ces scénarios, les risques sont gérables et largement liés aux contrôles internes et à la formation. Quoi qu’il en soit, ces défis ne devraient pas constituer des obstacles à l’évaluation et à la mise en œuvre de solutions d’IA générative. L’appréhension face aux nouvelles technologies est normale, mais les entreprises ne peuvent pas hésiter trop longtemps.
À mon avis, si vous envisagez d’être un leader efficace dans presque n’importe quelle entreprise, vous devez vous familiariser avec l’IA et trouver comment commencer à l’exploiter pour accroître l’efficacité et faire évoluer les opérations, explique Mahoney. Dans le cas contraire, vous serez laissé pour compte, tant sur le plan professionnel qu’en termes de résilience de votre entreprise.