Les entreprises ne se concentrent pas suffisamment sur la gouvernance et la sécurité de l’IA
L’industrie de l’IA doit entrer dans sa prochaine étape d’adoption pour éviter le redoutable hiver de l’IA.
Un hiver de l’IA est la période de jachère traditionnellement cyclique pour la technologie lorsque l’innovation et la R&D ralentissent ou stagnent.
Dans son rapport annuel « AI Adoption in the Enterprise » publié le 30 mars, l’éditeur d’éducation technologique O’Reilly Media a constaté qu’il n’y a pas eu beaucoup de changement dans l’adoption des outils et technologies d’IA par les entreprises au cours des dernières années. C’est la cinquième année que O’Reilly publie le rapport.
Selon O’Reilly, des secteurs tels que l’informatique et les services financiers sont encore les plus susceptibles d’adopter des outils et des technologies d’IA, tandis que les secteurs du gouvernement et de l’éducation évaluent encore largement l’IA. Lorsqu’elles examinent les outils d’IA, les organisations continuent de privilégier les cadres d’apprentissage automatique open source tels que TensorFlow, PyTorch et AWS SageMaker.
Mais l’absence de croissance spectaculaire du rythme auquel les entreprises utilisent l’IA dans le cadre de leur suite matérielle et logicielle standard fait penser à certains que l’industrie de l’IA est, dans un certain sens, au point mort.
Dans ce Q&A, Mike Loukides, l’un des auteurs du rapport de cette année et vice-président de la stratégie de contenu chez O’Reilly Media, a déclaré que les attitudes des entreprises envers la gouvernance, l’éthique et la sécurité de l’IA doivent changer pour pousser l’adoption de l’IA vers sa prochaine étape.
Qu’est-ce que l’absence de progrès significatifs dans l’adoption de l’IA par les entreprises indique ?
Mike Loukides : On a le sentiment que nous sommes en quelque sorte à la croisée des chemins. L’IA est en quelque sorte dans un état dangereux, où dans cinq ans, allons-nous découvrir que nous avons construit beaucoup de systèmes d’IA et qu’ils ne sont vraiment pas ce que nous voulons ?
Deux ou trois choses qui m’ont dérangé étaient que l’intérêt pratique pour l’éthique était exactement le même qu’il y a un an et, relativement parlant, pas si élevé sur la liste des préoccupations des gens.
Encore plus inquiétant, après tout ce que nous avons vu l’année dernière avec la sécurité et la sûreté, nous sommes juste morts comme nous l’étions l’année dernière. Quoi que nous aurions dû apprendre sur la sécurité après une très mauvaise année avec les ransomwares et toutes sortes d’autres attaques, la communauté de l’IA ne semble pas l’apprendre. Donc, je pense que c’est un gros problème.
Y a-t-il un décalage entre ce que nous entendons sur la gouvernance de l’IA et ce que font réellement les entreprises ?
Loukides : Il est vraiment important que les gens comprennent l’IA responsable, l’informatique responsable en général. Je ne sais pas si le message passe là-bas.
Qu’est-ce qui pourrait inciter les entreprises à prendre plus au sérieux la gouvernance et l’éthique de l’IA ?
Loukides : Je pense que ce qui va provoquer un changement, c’est que nous voyons de plus en plus de réglementations comme le RGPD et le California Consumer Privacy Act. Ces règlements forceront le changement.
Mike LoukidesVice-président de la stratégie de contenu, O’Reilly Media
Le problème avec la réglementation, c’est qu’elle est souvent mal pensée. L’un des objectifs du GDPR était de rendre les sites Web moins intrusifs en limitant l’utilisation de cookies. Maintenant, tout ce qui se passe, c’est que chaque fois que vous allez sur un site Web, vous obtenez une fenêtre contextuelle supplémentaire sur laquelle cliquer pour leur dire qu’ils peuvent utiliser des cookies.
La réglementation est importante, mais, en particulier avec la technologie, elle est souvent mal faite.
Quels sont certains des problèmes de sécurité liés à l’IA pour les entreprises ?
Loukides : Je pense que les plus gros problèmes de sécurité autour de l’IA vont surgir lorsque vous commencerez à voir… plus d’attaques d’empoisonnement des données. Par exemple, si une entreprise crée un chatbot pour faire du service client, vous allez presque certainement faire venir une catégorie de personnes qui pensent que c’est amusant de voir s’ils peuvent le faire devenir raciste ou misogyne.
Nous n’avons pas de bons moyens de maîtriser cela. Un problème dans l’industrie est que les gens ne sont pas très habitués à penser à ce qui peut mal tourner avec cela.
Un point soulevé par la communauté éthique est que tant que les équipes de développement seront principalement blanches et masculines, vous n’aurez pas de personnes sensibles aux problèmes auxquels les gens sont réellement confrontés dans le monde réel.
Il y a un gros problème de sensibilité culturelle. Cela a tendance à ne pas se produire si le développement est fait par … le réseau des vieux garçons blancs.
Note de l’éditeur: Cette interview a été éditée pour plus de clarté et de concision.