Comment l’IA peut renforcer la sécurité numérique
Grâce à l’IA Cyber Defense Initiative, nous poursuivons nos investissements dans une infrastructure prête pour l’IA, en publiant de nouveaux outils pour les défenseurs et en lançant de nouvelles recherches et formations sur la sécurité de l’IA. Ces engagements sont conçus pour aider l’IA à sécuriser, responsabiliser et faire progresser notre avenir numérique collectif.
1. Sécurisé. Nous pensons que les technologies de sécurité de l’IA, tout comme les autres technologies, doivent être sécurisées dès leur conception et par défaut, sinon elles pourraient aggraver davantage le dilemme du défenseur. C’est pourquoi nous avons lancé le Secure AI Framework comme moyen de collaborer sur les meilleures pratiques de sécurisation des systèmes d’IA. Pour tirer parti de ces efforts pour favoriser un écosystème d’IA plus sécurisé :
- Nous continuer à investir dans notre réseau de centres de données mondiaux sécurisé et prêt pour l’IA. Pour contribuer à inverser la tendance dans le cyberespace, nous devons mettre les nouvelles innovations en matière d’IA à la disposition des organisations du secteur public et des entreprises de toutes tailles et de tous les secteurs. Entre 2019 et fin 2024, nous aurons investi plus de 5 milliards de dollars dans des centres de données en Europe pour contribuer à un accès sécurisé et fiable à une gamme de services numériques, y compris de vastes capacités d’IA générative comme notre plateforme Vertex AI.
- Nous annonçons une nouvelle IA pour la cybersécurité cohorte de 17 startups du Royaume-Uni, des États-Unis et de l’UE dans le cadre du programme AI for Cybersecurity de Google for Startups Growth Academy. Cela contribuera à renforcer l’écosystème transatlantique de cybersécurité grâce à des stratégies d’internationalisation, des outils d’IA et les compétences nécessaires pour les utiliser.
2. Autonomisez. Les choix de gouvernance de l’IA faits aujourd’hui peuvent modifier le paysage du cyberespace de manière involontaire. Nos sociétés ont besoin d’une approche réglementaire équilibrée en matière d’utilisation et d’adoption de l’IA pour éviter un avenir dans lequel les attaquants peuvent innover mais les défenseurs ne le peuvent pas. Nous avons besoin d’investissements ciblés, de partenariats entre l’industrie et le gouvernement, ainsi que d’approches réglementaires efficaces pour permettre aux organisations de maximiser la valeur de l’IA tout en limitant son utilité pour les adversaires. Pour aider à donner l’avantage aux défenseurs dans ce combat :
- Nous élargissons nos 15 millions de dollars Google.org Programme de séminaires sur la cybersécurité pour couvrir toute l’Europe, initialement annoncé à la GSEC Malaga l’année dernière. Le programme, qui comprend des modules axés sur l’IA, aide les universités à former la prochaine génération d’experts en cybersécurité issus de communautés mal desservies.
- Étaient open source la magieun nouvel outil basé sur l’IA pour aider les défenseurs grâce à l’identification du type de fichier, un élément essentiel de la détection des logiciels malveillants. Magika est déjà utilisé pour protéger des produits tels que Gmail, Drive et Safe Browsing, ainsi que par notre équipe VirusTotal pour favoriser un environnement numérique plus sûr. Magika surpasse les méthodes d’identification de fichiers conventionnelles, offrant une précision globale améliorée de 30 % et une précision jusqu’à 95 % supérieure sur des contenus traditionnellement difficiles à identifier, mais potentiellement problématiques, tels que VBA, JavaScript et Powershell.
3. Avancez. Nous nous engageons à faire progresser la recherche qui contribue à générer des percées dans la sécurité basée sur l’IA. Pour soutenir cet effort, nous annonçons 2 millions de dollars en subventions de recherche et partenariats stratégiques cela contribuera à renforcer les initiatives de recherche sur la cybersécurité utilisant l’IA, notamment en améliorant la vérification du code, en améliorant la compréhension de la manière dont l’IA peut contribuer à la cyberattaque et aux contre-mesures de défense, et en développant de grands modèles de langage plus résilients aux menaces. Le financement soutient des chercheurs d’institutions telles que l’Université de Chicago, Carnegie Mellon et Stanford. Cela s’appuie sur nos efforts continus pour stimuler l’écosystème de la cybersécurité, y compris notre engagement de 12 millions de dollars en faveur du système de recherche de New York l’année dernière.
La révolution de l’IA est déjà en marche. Si les gens applaudissent à juste titre la promesse de nouveaux médicaments et de percées scientifiques, ils sont également enthousiasmés par le potentiel de l’IA à résoudre les défis de sécurité générationnels tout en nous rapprochant du monde numérique sûr, sécurisé et fiable que nous méritons.