L’utilisation de l’intelligence artificielle pose un casse-tête ESG pour l’industrie financière mondiale – Thomson Reuters Institute

L’intelligence artificielle (IA) est souvent présentée comme la panacée pour la capacité des entreprises de services financiers à faire face à l’assaut imminent des données découlant de la réglementation environnementale, sociale et de gouvernance (ESG). Pourtant, l’ESG constitue également une menace existentielle pour l’utilisation de l’IA par le secteur des services financiers

Le règlement de l’Union européenne sur la divulgation en matière de financement durable a obligé les sociétés de gestion d’actifs à commencer à collecter des millions de points de données auprès des entreprises dans lesquelles elles investissent, et la prochaine directive sur les rapports d’entreprise en matière de développement durable ne fera qu’ajouter au volume de points de données. De plus, il y a les données collectées dans le cadre de l’initiative TCFD (Task Force on Climate-Related Financial Disclosures) et les plans de l’International Sustainability Standards Board visant à créer une base de référence pour les rapports ESG.

Dans l’ensemble, il devient clair que les systèmes basés sur l’IA seront essentiels aux efforts des entreprises pour donner un sens à toutes ces exigences et en tirer profit.

Cependant, les problèmes potentiels pour les entreprises de services financiers utilisant l’IA se cachent sous les trois colonnes E, S et G. L’empreinte carbone du stockage et du traitement des données est énorme et croissante, il a déjà été démontré que les algorithmes discriminent certains groupes de la population, et le manque de compétences technologiques dans les rangs de la haute direction et de la main-d’œuvre en général rend les entreprises vulnérables aux erreurs.

Environnement : Empreinte carbone de la consommation d’énergie

Selon l’Agence internationale de l’énergie, la consommation d’électricité des centres de données de refroidissement pourrait représenter jusqu’à 15 % à 30 % de l’utilisation totale d’un pays d’ici 2030. L’exécution d’algorithmes pour traiter les données nécessite également une consommation d’énergie.

La formation à l’IA pour les entreprises a un impact environnemental important, selon Tanya Goodin, experte en éthique technologique et membre de la Royal SocietyofArts de Londres. « La formation à l’intelligence artificielle est un processus très énergivore, explique Goodin. L’IA est formée via un apprentissage en profondeur, qui implique le traitement de grandes quantités de données.

Des estimations récentes d’universitaires suggèrent que l’empreinte carbone de la formation d’une seule IA est de 284 tonnes, ce qui équivaut à cinq fois les émissions à vie d’une voiture moyenne. Des calculs séparés placent la consommation d’énergie d’un super-ordinateur au même niveau que celle de 10 000 ménages. Pourtant, la comptabilisation de cette énorme consommation d’électricité est souvent cachée. Lorsqu’une organisation possède ses centres de données, les émissions de carbone seront capturées et déclarées dans ses émissions TCFD de portée 1 et 2. Si, cependant, comme cela se produit dans un nombre croissant de centres de données d’entreprises financières, les centres de données sont externalisés vers un fournisseur de cloud, les émissions chutent au portée 3 en termes de déclaration TCFD , qui tend à se faire sur une base volontaire.

« Je pense que c’est une mauvaise direction classique presque comme un tour de magie de mauvaise direction, explique Goodin. L’IA est vendue comme une solution au changement climatique, et si vous parlez à l’une des entreprises technologiques, elle vous dira qu’il existe un énorme potentiel d’utilisation de l’IA pour résoudre les problèmes climatiques, mais en réalité, c’est une grande partie du problème.

Social : Algorithmes discriminants et étiquetage des données

Les algorithmes ne sont aussi bons que les personnes qui les conçoivent et les données sur lesquelles ils sont formés, un point reconnu par la Banque des règlements internationaux (BRI) plus tôt cette année. « IA/ML [machine learning] Les modèles (comme les modèles traditionnels) peuvent refléter des biais et des inexactitudes dans les données sur lesquelles ils sont formés, et entraîner potentiellement des résultats contraires à l’éthique s’ils ne sont pas correctement gérés », a déclaré le BIS.

Kate Crawford, cofondatrice de l’AI Now Institute de l’Université de New York, est allée plus loin en mettant en garde contre les risques éthiques et sociaux inhérents à de nombreux systèmes d’IA dans son livre Atlas de l’IA. « [The] la séparation des questions éthiques de la technique reflète un problème plus large dans le domaine [of AI]où la responsabilité du préjudice n’est pas reconnue ou est considérée comme hors de portée », déclare Crawford.

Il n’est donc peut-être pas surprenant que les sociétés d’hypothèques, de prêts et d’assurances se soient déjà retrouvées du mauvais côté des régulateurs lorsque l’IA qu’elles utilisaient pour prendre des décisions en matière de prêts et de tarification des assurances s’est avérée avoir absorbé et perpétué certains biais.

En 2018, par exemple, des chercheurs de l’Université de Californie à Berkeley ont découvert que l’IA utilisée dans les décisions de prêt perpétuait les préjugés raciaux. En moyenne, les emprunteurs latinos et afro-américains payaient 5,3 points de base de plus en intérêts sur leurs prêts hypothécaires que les emprunteurs blancs. Au Royaume-Uni, des recherches menées par l’Institute and Faculty of Actuaries et l’association caritative Fair By Design ont révélé que les personnes vivant dans des quartiers à faible revenu payaient 300 de plus par an pour l’assurance automobile que celles possédant des véhicules identiques vivant dans des zones plus riches.

La Financial Conduct Authority (FCA) du Royaume-Uni a averti à plusieurs reprises les entreprises qu’elle surveillait la manière dont elles traitaient leurs clients. En 2021, la FCA a révisé les règles de tarification pour les assureurs après que des recherches ont montré que les algorithmes de tarification généraient des tarifs plus bas pour les nouveaux clients que ceux accordés aux clients existants. De même, le paquet législatif de l’UE sur l’IA devrait étiqueter les algorithmes utilisés dans la notation de crédit comme à haut risque et imposer des obligations strictes à leur utilisation par les entreprises.

Les sociétés financières doivent également être conscientes de la façon dont les données ont été étiquetées, convient Goodin. « Lorsque vous construisez une IA, l’un des éléments qui reste assez manuel est que les données doivent être étiquetées. L’étiquetage des données est sous-traité par toutes ces grandes entreprises technologiques, principalement dans les pays du tiers monde qui paient [poorly]note-t-elle, ajoutant que ces situations s’apparentent à l’industrie de la mode jetable et à ses ateliers clandestins.

Gouvernance : la direction ne comprend pas la technologie

En ce qui concerne la gouvernance, le plus gros problème pour les entreprises de services financiers est le manque de personnel qualifié sur le plan technologique, et cela inclut ceux au niveau de la haute direction.

« Il y a un manque fondamental d’expertise et d’expérience dans le secteur de l’investissement en matière de données », déclare le Dr Rory Sullivan, cofondateur et directeur de Chronos Sustainability et professeur invité au Grantham Research Institute on Climate Change de la London School of Economics. .

Les sociétés d’investissement prennent aveuglément des données et les utilisent pour créer des produits sans comprendre aucune des incertitudes ou des limites qui pourraient être dans les données, dit Sullivan. « Nous avons donc un problème de capacité et d’expertise, et c’est un problème de capacité très technique autour des données et de l’interprétation des données », ajoute-t-il.

Goodin est d’accord, notant que tous les conseils d’administration des sociétés financières devraient employer des éthiciens pour les conseiller sur l’utilisation de l’IA. «À l’avenir, un domaine assez important concernera les éthiciens de l’IA qui travailleront avec les entreprises pour déterminer la position éthique de l’IA qu’elles utilisent, dit-elle.

Je pense donc que les conseils d’administration des banques doivent réfléchir à la manière dont ils y accéderont.

www.actusduweb.com
Suivez Actusduweb sur Google News


Ce site utilise des cookies pour améliorer votre expérience. Nous supposerons que cela vous convient, mais vous pouvez vous désinscrire si vous le souhaitez. J'accepteLire la suite