L’IA est sur le point de secouer l’industrie de la cybersécurité par Robert Burrus | Informations sponsorisées
Cet article a été rédigé par Dan Barber, instructeur en cybersécurité au sein de CSB.
L’intelligence artificielle est le sujet le plus brûlant de la technologie et des affaires en ce moment. Alors que les entreprises essaient de tirer parti du potentiel de capacité accélérée et que des universités comme la nôtre repensent la façon dont nous attribuons et mesurons le travail significatif, les pirates ont déjà militarisé l’IA. Au cours du dernier semestre, les étudiants de notre programme de cybersécurité ont utilisé des systèmes d’IA de traitement du langage naturel pour concevoir un scanner de vulnérabilité en Python. Nous aurons besoin de beaucoup plus de cette créativité pour rester sur le côté défensif des choses en fonction de ce que j’ai vu.
Les pirates ont déjà utilisé l’IA pour améliorer les logiciels malveillants, le phishing et l’extorsion basée sur l’ingénierie sociale. Il a été utilisé pour créer des clés de licence logicielle et a également le potentiel de casser la cryptographie. Tout comme les étudiants de l’UNCW ont utilisé l’IA pour automatiser et améliorer le codage Python, les pirates utilisent l’IA pour améliorer les logiciels malveillants ainsi que pour échapper à la détection de votre logiciel antivirus. Avez-vous remarqué une augmentation des spams ces derniers temps ? L’IA est utilisée pour créer des e-mails de phishing qui peuvent échapper à vos filtres anti-spam, ainsi que pour cibler plus efficacement les victimes.
L’utilisation la plus déplorable de l’IA a peut-être été dans les médias audio et visuels génératifs. Il existe des utilisations controversées de l’IA pour recréer des êtres chers perdus (Deepbrain AI), ce qui est prévu par la science-fiction depuis des décennies. Mais les pirates utilisent cette technologie pour simuler des scénarios d’otages et d’extorsion. Il y a des cas signalés de faux scénarios d’otages où les escrocs ont utilisé l’IA pour simuler la voix d’un membre de la famille. Des cas de deepfake vidéos de personnes dans des situations compromettantes ou peu flatteuses utilisées pour extorquer de l’argent à leurs victimes ont également été signalés.
ChatGPT a même été en mesure de produire des clés de licence Windows 11 jusqu’à ce que l’histoire devienne virale et qu’OpenAI ait dû intervenir et ajouter des garde-fous pour empêcher cette divulgation. Notez que les clés de licence fonctionnaient pour l’activation hors ligne, mais Microsoft dispose depuis longtemps de contrôles techniques qui interdisent l’utilisation de clés de licence illégitimes ou réutilisées pour les systèmes en ligne. Pourtant, cela conduit à une question intéressante : pouvez-vous pirater l’IA ?
Oui, oui tu peux. AI Prompt Engineer est l’un des emplois les plus récents et les plus populaires que vous puissiez trouver. Les entreprises recherchent des ingénieurs AI Prompt avec plus de 5 ans d’expérience (notez que ces candidats n’existent pas). La même chose avec les ingénieurs DevSecOps, les ingénieurs CDM et presque toutes les tendances technologiques récentes. Vous ne pouvez pas reprocher à une entreprise de demander le candidat de ses rêves, même si cette personne n’existe pas. Les ingénieurs AI Prompt, qui proviendront probablement des domaines des données et de l’analyse commerciale, sont du personnel spécialisé qui connaît les tenants et les aboutissants de l’interaction avec les algorithmes d’IA et d’apprentissage automatique pour produire les résultats souhaités.
Mais lorsqu’un ingénieur AI Prompt utilise son expertise pour manipuler l’IA afin d’effectuer des actions involontaires ou de contourner un garde-corps mis en place par la société d’IA, ces individus deviennent la nouvelle marque de pirates informatiques. C’est un territoire relativement nouveau pour tout le monde. La chose la plus proche que nous ayons eue d’un AI Hacker dans le passé est un Google Dork. « Google Dorking » est un terme inventé pour ceux qui utilisent les fonctionnalités avancées du moteur de recherche pour identifier les vulnérabilités de sécurité ou d’autres informations qui n’étaient pas destinées à la diffusion publique. Si Google Dorking est un indicateur, il y aura une industrie de niche pour les pirates de l’IA au cours de la prochaine décennie.
L’IA commence à perturber plusieurs industries. À l’UNCW, nous lançons un nouveau cours d’IA – L’intelligence artificielle pour les entreprises – cet automne 2023. Nous avons investi dans des outils de détection d’IA pour notre faculté et développons des moyens d’aborder les tâches qui peuvent atténuer l’impact de l’utilisation de l’IA dans les soumissions des étudiants. Nous utilisons même l’IA pour accélérer le développement de contenu pour le matériel scolaire. Les étudiants de notre cours CYBR 202 Politique/Juridique/Éthique/Conformité ont récemment reçu un contenu développé en partie avec l’IA et ont été invités à considérer les implications éthiques de l’utilisation de l’IA pour accélérer le développement du matériel de classe. Le temps nous dira si le contenu généré par l’IA sera accueilli favorablement dans le milieu universitaire ainsi que dans toutes les autres industries.
Avec tant de changements dans les affaires, le besoin de formation continue est primordial. C’est particulièrement le cas avec la cybersécurité, où chaque avancée technologique ou commerciale signifie que nous devons repenser notre approche de la sécurité. L’industrie de la cybersécurité n’est jamais ennuyeuse.
Inscrivez-vous maintenant pour participer à notre 5e conférence annuelle sur la cybersécurité, UNCW CyberConf 2023, qui se tiendra les 12 et 13 octobre. CLIQUEZ ICI pour en savoir plus sur l’IA et les autres tendances actuelles en matière de cybersécurité.