Risques de cybersécurité & ChatGPT : Oui, il y a des menaces voici à quoi faire attention | WRAL TechWire
Il y a beaucoup de battage autour de ChatGPT et d’autres outils d’intelligence artificielle (IA) maintenant, et l’espace se transforme rapidement. Alors que les entreprises technologiques cherchent à augmenter leurs processus et produits actuels et futurs, elles doivent procéder avec prudence et évaluer les risques potentiels associés à la technologie et à la manière dont elle est utilisée sur le marché.
En ce qui concerne les menaces de cybersécurité, les versions actuelles présentent des risques accrus dont il faut être conscient, notamment :
- Contenu de phishing améliorécela ressemble à quelque chose qu’un locuteur natif anglais dirait (par opposition à une autre langue mal traduite en anglais)
- Garanties insuffisantespermettant aux acteurs malveillants moins expérimentés d’utiliser du code malveillant qu’ils n’auraient peut-être pas l’expertise nécessaire pour écrire ou trouver par eux-mêmes
- Potentiel de pirater ou de détourner un outil de chatbot IAafin de diriger les gens vers des sites malveillants
- Paramètres inconnus ou manquantspour déterminer comment les outils d’IA conversationnelle peuvent être utilisés sous une forme sous licence
Chatbot ChatGPT arrive sur plus de vos applications, voici pourquoi
Des défenses plus intelligentes, la transparence sera essentielle
Sachant que l’erreur humaine représente toujours la plupart des cyberattaques réussies, les pratiques de phishing améliorées ne doivent pas être prises à la légère. Nous avons bien besoin de défenses plus intelligentes du côté entrant pour détecter et mettre en quarantaine ces messages plus sophistiqués. Les utilisateurs finaux ont déjà du mal à identifier les tentatives de phishing, et maintenant elles pourraient sembler encore plus légitimes.
Si le code malveillant devient plus facile à obtenir, cela entraînera une augmentation du nombre de problèmes. Attirer même 1 % de criminels en herbe supplémentaires pour exécuter des tentatives de piratage et de phishing au même rythme augmente les risques pour les organisations et les utilisateurs finaux. La possibilité de rediriger des personnes depuis des sites/outils de chatbot légitimes vers des sites malveillants est là où les choses deviennent particulièrement intéressantes. Au début, alors que l’industrie trie les barrières de sécurité, il faudra du temps à l’IA pour reconnaître la différence entre les bons et les mauvais acteurs. Les algorithmes pourraient pécher par excès d’inclusion, ce qui pourrait conduire à l’ingestion et à la recommandation de mauvaises choses.
Alors que les moteurs de recherche populaires explorent et intègrent des capacités conversationnelles dans leurs résultats, sur quoi ces recommandations vont-elles être basées ? Dans un monde SEO axé sur les mots clés, c’est assez clair. Les méta-balisages pertinents, les liens croisés et les classements de recherche fournissent un score assez décisif.
Mais je ne savais pas comment cela se passerait dans un monde semblable à ChatGPT. La transparence sur la façon dont cela va fonctionner est très importante pour que les gens fassent confiance au processus. Lorsque les réponses sont présentées sans contexte, les gens sont plus susceptibles de leur faire confiance car elles semblent définitives. Vous posez une question et obtenez une réponse, mais vous ne vous demandez pas si c’est la bonne réponse.
En ce qui concerne les paramètres et les licences, la plupart des solutions actuelles fonctionnent sur les mêmes serveurs à partir de la même base de code. Que se passe-t-il lorsqu’ils commencent à recevoir des appels dans des environnements indépendants ? À quoi ressembleront les accords de niveau de service (SLA) régissant leur utilisation ? Comment empêchent-ils que la fonctionnalité soit acquise par le mauvais type d’acteurs ? Il y a tellement d’inconnues qu’il est difficile de savoir par où commencer.
Suivez l’innovation, posez les bonnes questions
Je suis toujours dans un état d’esprit attentiste en ce qui concerne ChatGPT et la cybersécurité. Nous avons entendu des grognements selon lesquels OpenAI travaille sur une nouvelle version qui est 15 fois plus puissante que ce qui a été publié à ce jour.
Je n’ai pas été surpris d’entendre cela, mais cela soulève quelques questions:
- Peut-il traiter plus d’algorithmes plus rapidement ?
- Les réponses sont-elles 15 fois plus pertinentes ?
Je trouve cette possibilité difficile à croire. Ces processus mangenténormequantités de données. Il y a plusieurs années, un membre du conseil d’administration de CompTIA a noté que l’industrie n’avait pas commencé à capitaliser sur la vente de puissance de traitement pure dans le cloud. Il était très prévoyant.
La plupart des applications cloud consomment aujourd’hui de l’espace sur le disque dur, mais ont une très faible intensité de processeur dans le même sens que quelque chose comme ChatGPT. Pensez maintenant à des centaines de ces moteurs fonctionnant simultanément, consommant des billions de cycles CPU chaque minute !
À qui appartient-il de toute façon ?
De plus, il y a un facteur non-cyber à suivre. Comment les développeurs respecteront-ils les droits d’auteur et les marques ? Les moteurs de recherche ne prétendent pas que le contenu qu’ils proposent leur appartient.
La façon dont ChatGPT s’affiche, du moins pour le moment, il semble que l’IA produise comme par magie toutes les réponses et élabore le contenu lui-même. Bien sûr, la vérité est qu’il a ingéré et résumé Internet (au moins jusqu’à la fin de 2021) pour produire une réponse à la demande.
Ce qu’il sait de l’écriture d’un sonnet, il l’a appris de ce que de vraies personnes ont fait. Je peux voir un système de micropaiements pour les créateurs de contenu et les propriétaires de sites Web chaque fois que leurs œuvres sont consultées ou utilisées de manière significative. Si les développeurs ne résolvent pas tôt ce problème d’infraction, ils pourraient faire l’objet d’un procès après procès.
Pour toutes ces raisons (et plus), c’est un espace à suivre de très près. À tout le moins, les entreprises informatiques devraient se familiariser avec la technologie, car les clients vont poser des questions et vous allez vouloir avoir des réponses.
Todd Thibodeaux est PDG de CompTIA, qui est un partenaire de contenu de WRAL TechWire.
(C) CompTIA