Créer un réseau de cybersécurité pour sécuriser l’IA générative dans le secteur manufacturier
L’IA générative a explosé en popularité dans de nombreux secteurs. Si cette technologie présente de nombreux avantages, elle soulève également des problèmes particuliers en matière de cybersécurité. La sécurisation de l’IA doit être une priorité absolue pour les organisations qui se précipitent pour mettre en œuvre ces outils.
L’utilisation de l’IA générative dans le secteur manufacturier pose des défis particuliers. Plus d’un tiers des fabricants prévoient d’investir dans cette technologie, ce qui en fait le quatrième changement stratégique le plus courant du secteur. Alors que cette tendance se poursuit, les fabricants sont souvent les principales cibles de la cybercriminalité et doivent s’assurer que l’IA générative est suffisamment sécurisée avant que ses risques ne l’emportent sur ses avantages.
Risques de l’IA générative dans le secteur manufacturier
Sécuriser l’IA générative dans le secteur manufacturier commence par reconnaître ses risques. Cela peut être un sujet de préoccupation, car les secteurs industriels ne sont pas aussi expérimentés en matière de technologies de pointe. Par conséquent, ils sont peut-être moins susceptibles d’en comprendre les dangers potentiels et de négliger les protections nécessaires.
L’une des menaces de cybersécurité les plus importantes de l’IA générative est sa vulnérabilité aux attaques d’empoisonnement des données. Les attaquants peuvent manipuler le comportement des modèles d’IA, en modifiant leurs données d’entraînement en insérant des informations trompeuses ou fausses ou en supprimant des parties essentielles d’informations par ailleurs bonnes. Cette manipulation limite la fiabilité et l’efficacité de l’IA, et les organisations qui s’appuient trop sur l’IA risquent de ne pas s’en rendre compte avant qu’il ne soit trop tard.
Étant donné que les modèles d’IA générative nécessitent une grande quantité de données, ils peuvent également faire des fabricants des cibles plus importantes. Former l’IA sur les informations de l’entreprise pourrait laisser de nombreuses informations sensibles au même endroit. Ces grands ensembles de données consolidés pourraient permettre aux cybercriminels de voler plus facilement de grandes quantités de données de grande valeur.
De nombreux cas d’utilisation de l’IA générative dans le secteur manufacturier connectent également les modèles aux données de l’Internet des objets (IoT). Par conséquent, une solution d’IA compromise pourrait permettre aux attaquants de contrôler ou de perturber les processus IoT. Cela pourrait entraîner d’importants dommages physiques et des retards dans les processus.
Il convient de noter que l’IA présente également de nombreux avantages en matière de sécurité. Cela peut réduire les coûts des violations de données de 15 % et les délais de réponse de 12 % dans de nombreux cas. Compte tenu de ces avantages, les fabricants ne peuvent pas ignorer complètement l’IA, mais sa sécurité mérite une attention particulière.
Sécuriser l’IA dans le secteur manufacturier
Les fabricants doivent réorganiser leurs efforts de cybersécurité pour sécuriser les modèles d’IA générative. Cela commence par ces bonnes pratiques :
Chiffrer toutes les données
La première étape pour sécuriser l’IA dans le secteur manufacturier consiste à chiffrer les données. Cela s’applique à tout le trafic IoT au sein d’une installation et à toute information utilisée pour former des modèles d’IA génératifs.
Le chiffrement peut s’avérer difficile dans les ensembles de données d’entraînement de l’IA, car les modèles d’IA doivent généralement décrypter les informations avant de les utiliser. Cependant, quelques solutions émergent à ce problème. Le calcul multipartite (MPC) et le chiffrement homomorphique (HME) permettent aux modèles d’apprentissage automatique d’utiliser les données sans les exposer, bien que les deux technologies en soient encore à leurs débuts.
Les fabricants devront peut-être de toute façon renoncer aux méthodes de chiffrement conventionnelles, car l’informatique quantique pose de nouvelles menaces. L’utilisation d’une cryptographie à résistance quantique garantira que les données resteront pratiquement inutiles aux attaquants, même en cas de violation.
Restreindre l’accès à l’IA
Ensuite, les fabricants doivent restreindre l’accès aux modèles d’IA et aux ensembles de données de formation. Heureusement, les organisations prennent déjà plus au sérieux les contrôles d’accès, avec plus de 50 % d’entre elles adoptant des cadres zéro confiance. Même si les fabricants n’ont pas mis en œuvre ces restrictions dans leurs flux de travail plus vastes, ils devraient les appliquer à l’IA.
La clé est de limiter les privilèges au point où seules les personnes qui doivent accéder aux modèles et aux informations d’IA pour leur travail peuvent le faire. Moins il y a de personnes disposant de cet accès, moins les attaquants disposent de points d’entrée pour empoisonner les données.
Il est important de rappeler que les restrictions d’accès ne sont efficaces que si elles s’accompagnent de mesures d’authentification fortes. Des étapes telles que l’authentification multifactorielle, la biométrie ou les clés cryptographiques peuvent fournir l’assurance nécessaire. Compte tenu de la gravité de ces risques, de simples combinaisons de nom d’utilisateur et de mot de passe ne suffisent pas.
Moniteur de données IA
L’IA générative dans le secteur manufacturier nécessite également une surveillance en temps réel. L’industrie a déjà fait des progrès significatifs dans ce domaine. Une attention accrue portée aux risques liés à l’IoT a entraîné une augmentation de 458 % des analyses de sécurité de l’IoT, et il est temps d’appliquer la même attention aux modèles d’IA.
Les solutions de surveillance continue peuvent surveiller les modèles d’IA et les bases de données de formation pour identifier les activités suspectes. Le seuil de suspicion peut aller de tentatives d’accès répétées à partir de comptes non autorisés à des transferts de données inhabituels au sein de l’ensemble de données de formation. Quels que soient les détails, il est essentiel d’établir une base de comportement normal afin de reconnaître plus efficacement les violations potentielles.
Cette surveillance permet aux fabricants de détecter précocement les attaques d’IA. Ils peuvent alors y répondre et arrêter l’attaque avant qu’elle ne cause trop de dégâts.
Effectuer des tests d’intrusion réguliers
Les meilleures pratiques pour sécuriser l’IA générative dans le secteur manufacturier à l’avenir pourraient impliquer des étapes différentes de celles d’aujourd’hui. Les menaces évoluent rapidement, les mesures de cybersécurité doivent donc s’adapter tout aussi rapidement. Cette adaptation nécessite des tests d’intrusion réguliers.
Les tests d’intrusion sont essentiels dans tout secteur pour révéler et corriger les points faibles avant que les cybercriminels n’en profitent. Les fabricants sont confrontés à plus de pression que la plupart des autres dans ce domaine, car ils sont peut-être moins familiers avec les préoccupations et les mesures de cybersécurité. Ce manque de connaissances explique en partie pourquoi l’industrie manufacturière est le secteur le plus attaqué, mais les tests d’intrusion peuvent y remédier.
Les fabricants devraient tester leurs systèmes au moins une fois par an, idéalement plus. Il est important de tester toutes les zones de leurs réseaux, mais s’ils doivent se concentrer sur une chose à la fois, les modèles d’IA et les appareils IoT connectés méritent la plus grande attention.
Utilisez l’IA avec précaution
Quelles que soient les autres étapes suivies par les fabricants, ils doivent se rappeler que l’IA n’est qu’un outil. Même si aucune cyberattaque ne se produit, ces données peuvent néanmoins s’avérer inexactes. Ils ne doivent donc pas trop s’y fier.
Les experts humains devraient toujours avoir le dernier mot dans les décisions commerciales. Utiliser l’IA comme outil de support, et non comme seule source de vérité, contribuera à tempérer les attentes à son sujet. C’est important pour prévenir les abus et minimiser les dangers d’attaques telles que l’empoisonnement des données.
Confirmez toujours les informations de l’IA avant d’agir en conséquence. Testez minutieusement les modèles avant de les déployer. Des mesures comme celle-ci réduiront les risques liés aux modèles compromis et aux données trompeuses, avec ou sans cybercriminalité.
L’IA générative dans le secteur manufacturier a besoin d’une meilleure sécurité
L’IA générative est une technologie prometteuse. En même temps, cela peut être dangereux si les organisations ne font pas attention.
Les fabricants doivent équilibrer les avantages potentiels de l’IA avec ses risques pour l’utiliser au maximum de son potentiel. Le respect de ces meilleures pratiques et l’adoption d’une approche axée sur la sécurité dans la mise en œuvre de l’IA garantiront que l’industrie bénéficiera des avantages de cette technologie prometteuse sans souffrir de ses défauts.
Note de l’éditeur : les opinions exprimées dans cet article d’auteur invité sont uniquement celles du contributeur et ne reflètent pas nécessairement celles de Tripwire.