Tendances de l’IA pour 2023 – Outils de diagnostic de l’IA et risque de cybersécurité
La cybersécurité est un facteur de risque clé pour les applications émergentes de l’intelligence artificielle aux dispositifs médicaux. Les produits qui ne répondent pas aux risques de sécurité peuvent se rendre vulnérables aux cyberattaques. Les acteurs malveillants ciblent les hôpitaux et les systèmes de santé, en particulier via des ransomwares, la collecte d’informations d’identification ou le vol d’appareils. Selon un rapport d’IBM, le coût moyen d’une violation de données dans le domaine de la santé est désormais de 10,1 millions de dollars par incident, et le secteur de la santé a subi les coûts de violation de données les plus élevés de tous les secteurs examinés dans le rapport. L’IA ouvre le secteur à une nouvelle responsabilité potentielle, car les chercheurs ont montré que les modèles d’IA peuvent être trompés à l’aide d’images médicales falsifiées. Les participants de l’industrie doivent être conscients que, bien que la FDA ait généralement traité le secteur de la santé comme des victimes en ce qui concerne les cyberattaques, les régulateurs peuvent ajuster leur point de vue. En 2022, la FDA a publié un projet de directives sur la cybersécurité indiquant qu’elle refuserait l’autorisation ou l’approbation préalable à la commercialisation d’un dispositif médical si la cybersécurité n’était pas correctement prise en compte. Pour atténuer ces risques, les entreprises peuvent envisager une formation contradictoire pour leurs modèles d’IA. La pré-génération de données contradictoires pour apprendre au modèle que ces données sont manipulées peut rendre les outils de diagnostic de l’appareil plus robustes.