Anticiper les risques liés à la cybersécurité et à la vie privée dans l’IA | Grant Thorton
\r\n
\r\n
\r\n
Les violations de données posent un risque de cybersécurité important pour les plateformes d’IA qui stockent et traitent de grandes quantités de données confidentielles ou sensibles telles que des informations personnellement identifiables, des données financières et des dossiers de santé.
\r\n
\r\n
Plusieurs facteurs de risque peuvent contribuer aux violations de données dans les plateformes d’IA. En interne, les instances d’IA qui traitent et analysent les données peuvent être vulnérables en raison de protocoles de sécurité faibles, d’un cryptage insuffisant, d’un manque de surveillance adéquate, de contrôles d’accès laxistes et de menaces internes. En externe, les solutions et plates-formes d’IA peuvent être vulnérables à divers risques de sécurité et peuvent être la cible de vols de données, en particulier si les données utilisées pour interagir avec ces plates-formes sont enregistrées ou stockées.
\r\n
\r\n
Le risque d’utilisation abusive et de perte de données a augmenté en raison de la disponibilité illimitée de projets GenAI tels que GPT-4 ou PaLM2, ainsi que d’autres variantes open source. Le risque est particulièrement élevé pour le personnel informatique, d’ingénierie, de développement et même de sécurité, qui peut souhaiter utiliser GenAI pour accélérer ses tâches quotidiennes ou simplement expérimenter de nouvelles technologies. Ils peuvent transmettre par inadvertance des données sensibles via des extensions de navigateur, des API ou directement à la plate-forme GenAI. Sans une solution sanctionnée par l’entreprise, certains peuvent utiliser leurs comptes personnels, engageant potentiellement leurs entreprises à des conditions d’utilisation qui peuvent ne pas être acceptables du point de vue de la confidentialité et des risques.
\r\n » » id= »text-0be12a9281″>
1. Violations de données et utilisation abusive
Les violations de données posent un risque de cybersécurité important pour les plateformes d’IA qui stockent et traitent de grandes quantités de données confidentielles ou sensibles telles que des informations personnellement identifiables, des données financières et des dossiers de santé.
Plusieurs facteurs de risque peuvent contribuer aux violations de données dans les plateformes d’IA. En interne, les instances d’IA qui traitent et analysent les données peuvent être vulnérables en raison de protocoles de sécurité faibles, d’un cryptage insuffisant, d’un manque de surveillance adéquate, de contrôles d’accès laxistes et de menaces internes. En externe, les solutions et plates-formes d’IA peuvent être vulnérables à divers risques de sécurité et peuvent être la cible de vols de données, en particulier si les données utilisées pour interagir avec ces plates-formes sont enregistrées ou stockées.
Le risque d’utilisation abusive et de perte de données a augmenté en raison de la disponibilité illimitée de projets GenAI tels que GPT-4 ou PaLM2, ainsi que d’autres variantes open source. Le risque est particulièrement élevé pour le personnel informatique, d’ingénierie, de développement et même de sécurité, qui peut souhaiter utiliser GenAI pour accélérer ses tâches quotidiennes ou simplement expérimenter de nouvelles technologies. Ils peuvent transmettre par inadvertance des données sensibles via des extensions de navigateur, des API ou directement à la plate-forme GenAI. Sans une solution sanctionnée par l’entreprise, certains peuvent utiliser leurs comptes personnels, engageant potentiellement leurs entreprises à des conditions d’utilisation qui peuvent ne pas être acceptables du point de vue de la confidentialité et des risques.