L’IA peut contribuer « de manière disproportionnée » à la défense contre les menaces de cybersécurité, déclare Sundar Pichai, PDG de Google
Le PDG de Google, Sundar Pichai, s’entretient avec Emily Chang lors du sommet des PDG de l’APEC à Moscone West le 16 novembre 2023 à San Francisco, en Californie. Le sommet de l’APEC se tient à San Francisco et se poursuivra jusqu’au 17 novembre.
Justin Sullivan | Actualités Getty Images | Getty Images
« Nous avons raison de nous inquiéter de l’impact sur la cybersécurité. Mais je pense que, contre-intuitivement, l’IA renforce notre défense en matière de cybersécurité », a déclaré Pichai aux délégués à la Conférence sur la sécurité de Munich à la fin de la semaine dernière.
Les attaques de cybersécurité sont de plus en plus nombreuses et sophistiquées, car les acteurs malveillants les utilisent de plus en plus comme moyen d’exercer leur pouvoir et d’extorquer de l’argent.
Les cyberattaques coûteront à l’économie mondiale environ 8 000 milliards de dollars en 2023, une somme qui devrait atteindre 10 500 milliards de dollars d’ici 2025, selon la société de recherche en cybersécurité Cybersecurity Ventures.
Un rapport de janvier du Centre national de cybersécurité britannique, qui fait partie du GCHQ, l’agence de renseignement du pays, a déclaré que l’IA ne ferait qu’augmenter ces menaces, réduisant les barrières à l’entrée pour les cyberpirates et permettant davantage de cyberactivités malveillantes, y compris les attaques de ransomwares.
« L’IA aide de manière disproportionnée les personnes qui défendent, car vous disposez d’un outil qui peut avoir un impact à grande échelle.
Sundar Pichai
PDG de Google
Cependant, Pichai a déclaré que l’IA réduisait également le temps nécessaire aux défenseurs pour détecter les attaques et réagir contre elles. Il a déclaré que cela réduirait ce que l’on appelle le dilemme des défenseurs, selon lequel les cyberpirates doivent réussir une seule fois pour attaquer un système alors qu’un défenseur doit réussir à chaque fois pour le protéger.
« L’IA aide de manière disproportionnée les personnes qui se défendent, car vous disposez d’un outil qui peut avoir un impact à grande échelle par rapport aux personnes qui tentent de l’exploiter », a-t-il déclaré.
« Donc, d’une certaine manière, nous gagnons la course », a-t-il ajouté.
Google a annoncé la semaine dernière une nouvelle initiative proposant des outils d’IA et des investissements dans les infrastructures conçus pour renforcer la sécurité en ligne. Un outil gratuit et open source baptisé Magika vise à aider les utilisateurs à détecter les logiciels malveillants, a déclaré la société dans un communiqué, tandis qu’un livre blanc propose des mesures et des recherches et crée des garde-fous autour de l’IA.
Pichai a déclaré que les outils étaient déjà utilisés dans les produits de l’entreprise, tels que Google Chrome et Gmail, ainsi que dans ses systèmes internes.
« L’IA se trouve à un carrefour définitif où les décideurs politiques, les professionnels de la sécurité et la société civile ont la possibilité de faire enfin pencher la balance de la cybersécurité des attaquants vers les cyberdéfenseurs. »
Cette publication a coïncidé avec la signature d’un pacte par les grandes entreprises du MSC pour prendre des « précautions raisonnables » pour empêcher que les outils d’IA ne soient utilisés pour perturber les votes démocratiques au cours de l’année électorale exceptionnelle de 2024 et au-delà.
Adobe, Amazon, Google, IBM, Meta, Microsoft, OpenAI, TikTok et X figuraient parmi les signataires du nouvel accord, qui comprend un cadre sur la manière dont les entreprises doivent réagir aux « deepfakes » générés par l’IA et conçus pour tromper les électeurs.
Cela survient alors qu’Internet devient une sphère d’influence de plus en plus importante, tant pour les individus que pour les acteurs malveillants soutenus par l’État.
L’ancienne secrétaire d’Etat américaine Hillary Clinton a décrit samedi le cyberespace comme « un nouveau champ de bataille ».
« La course aux armements technologiques vient de franchir une nouvelle étape avec l’IA générative », a-t-elle déclaré à Munich.
« Si vous pouvez courir un peu plus vite que votre adversaire, vous ferez mieux. C’est ce que l’IA nous apporte vraiment sur le plan défensif.
Marc Hughes
président de la sécurité chez DXC
Un rapport publié la semaine dernière par Microsoft a révélé que des pirates informatiques soutenus par des États de Russie, de Chine et d’Iran utilisent son modèle de langage étendu (LLM) OpenAI pour renforcer leurs efforts visant à tromper leurs cibles.
Les renseignements militaires russes, les Gardiens de la révolution iraniens et les gouvernements chinois et nord-coréen se seraient tous appuyés sur ces outils.
Mark Hughes, président de la sécurité chez la société de services informatiques et de conseil DXC Technology, a déclaré à CNBC que les mauvais acteurs s’appuyaient de plus en plus sur un outil de piratage inspiré de ChatGPT appelé WormGPT pour effectuer des tâches telles que le code d’ingénierie inverse.
Cependant, il a déclaré qu’il constatait également des « gains significatifs » grâce à des outils similaires qui aident les ingénieurs à détecter et à prévenir rapidement les attaques des ingénieurs.
« Cela nous donne la possibilité d’accélérer », a déclaré Hughes la semaine dernière. « La plupart du temps, dans le cyberespace, vous disposez du temps dont disposent les attaquants contre vous. C’est souvent le cas dans toute situation de conflit.
« Si vous pouvez courir un peu plus vite que votre adversaire, vous ferez mieux. C’est ce que l’IA nous offre vraiment défensivement en ce moment », a-t-il ajouté.