L’IA domine les grandes tendances de la cybersécurité pour 2024 : rapport
L’IA est en tête de liste des tendances émergentes susceptibles d’avoir un impact sur le segment de la sécurité des entreprises en 2024, selon une étude de la Security Industry Association (SIA).
L’étude menée auprès de centaines de dirigeants du secteur de la sécurité, dont plusieurs bénévoles et conférenciers de la conférence 2023 Securing New Ground (SNG), a révélé une pénétration multiforme de l’IA dans le segment de la sécurité.
Quatre-vingt-treize pour cent ont déclaré qu’ils s’attendaient à voir l’intelligence artificielle (IA) générative comme ChatGPT avoir un impact sur leurs stratégies commerciales au cours des cinq prochaines années, et plus de 89 % ont déclaré avoir des projets d’IA actifs dans leurs pipelines de recherche et développement (R&D). , indique le rapport de la SIA.
Parmi les autres tendances clés soulignées dans l’étude figurent l’expansion et l’évolution du retour sur investissement des sécurités, l’évolution du modèle commercial d’intégration, la sécurité en tant que service (SaaS), la réoptimisation de l’immobilier et la convergence IT-OT.
L’IA pour avoir un impact multiforme
Le premier pont (les quatre premiers) de la liste comprenait les tendances liées à l’IA qui, selon SIA, auront un impact substantiel sur le segment au cours de l’année à venir. En tête de liste se trouvait la sécurité de l’IA, qui fait référence aux pratiques de cybersécurité pour la protection des données, de la propriété intellectuelle et de l’intégrité de l’entreprise avec l’adoption de l’IA dans les entreprises de toutes tailles.
L’IA est devenue plus accessible ces dernières années, étant utilisée à la fois pour le meilleur et pour le pire, a déclaré Pankit Desai, co-fondateur et PDG de la société de cybersécurité Sequretek. Du point de vue des attaquants, les attaques basées sur l’IA sont beaucoup plus efficaces et difficiles à repérer. Par exemple, une attaque d’ingénierie sociale menée à l’aide de technologies d’IA aura un langage, une représentation et des deepfakes plus convaincants.
Selon l’étude, trois préoccupations déterminantes associées à la sécurité de l’IA comprennent la confiance dans l’IA, l’application éthique de l’IA et la cybersécurité de l’IA.
La deuxième tendance observée dans l’étude est l’adoption de caméras numériques basées sur l’IA, qui deviennent rapidement un outil incontournable dans le secteur de la sécurité, utilisant l’IA pour modifier de manière permanente la proposition de valeur de la vidéosurveillance vers l’intelligence vidéo.
L’Internet des objets (IoT) était autrefois perçu comme un vaste réseau de capteurs. Il s’avère que bon nombre de ces capteurs seront des caméras, indique le rapport. Soixante-dix-huit millions de caméras de sécurité ont été expédiées dans le monde en 2022.
La réglementation de l’IA devrait rattraper son retard
L’IA générative, une IA à invite de texte uniquement programmée avec un énorme corpus de données publiques, est apparue comme une autre tendance majeure. L’étude a révélé que cette technologie d’IA est susceptible de changer le secteur de la sécurité.
Les applications LLM (comme ChatGPT) seront appliquées aux données des systèmes de sécurité, indique le rapport. L’IA générative sera utilisée pour la création de contenu et la résolution des défis opérationnels de l’entreprise.
Comme le révèle l’étude, 48 % des développeurs de solutions de sécurité s’attendent à ce que l’IA générative ait un fort impact sur leur stratégie au cours des cinq prochaines années. De plus, 74 % d’entre eux ont caractérisé les investissements en R&D de leur entreprise comme étant entièrement, fortement ou quelque peu axés sur l’IA.
Cependant, en raison de sa popularité instantanée et de sa facilité d’accès, il est devenu extrêmement important que les cadres réglementaires et juridiques interviennent et mettent en place des lignes directrices réglementaires, selon Desai.
La construction d’un cadre réglementaire autour de la technologie Gen AI nécessite un examen attentif de divers facteurs pour garantir un développement et un déploiement éthiques, responsables et sûrs, a déclaré Kumar Ritesh, fondateur et PDG de la société de cybersécurité Cyfirma. Nous dirions que la transparence, l’équité, la responsabilité, la confidentialité et la normalisation seraient très importantes.
La réglementation de l’IA devient ainsi un sujet plutôt tendance en matière de sécurité, plusieurs pays cherchant à publier leurs propres guides sur l’IA. Il s’installe à la quatrième place de la liste, car l’étude révèle la probabilité que plusieurs limitations soient incorporées dans certains ensembles de données utilisés par les principaux systèmes d’IA.