Intelligence artificielle et égalité des sexes | Siège d’ONU Femmes

Une étude du Berkeley Haas Center for Equity, Gender and Leadership a analysé 133 systèmes d’IA dans différents secteurs et a révélé qu’environ 44 % d’entre eux présentaient des préjugés sexistes et 25 % des préjugés sexistes et raciaux.

Beyza Dou, une artiste d’Ankara, en Turquie, a été confrontée à des préjugés sexistes dans Generative AI alors qu’elle recherchait un roman et l’a incité à écrire une histoire sur un médecin et une infirmière. L’IA générative crée de nouveaux contenus (texte, images, vidéo, etc.) inspirés de contenus et de données similaires sur lesquels elle a été formée, souvent en réponse aux questions ou aux invites d’un utilisateur.

L’IA a fait du médecin un homme et de l’infirmière une femme. Dou a continué à lui donner plus d’invites, et l’IA a toujours choisi des rôles stéréotypés de genre pour les personnages et a associé certaines qualités et compétences à des personnages masculins ou féminins. Lorsqu’elle a interrogé l’IA sur les préjugés sexistes dont elle faisait preuve, l’IA a expliqué que c’était à cause des données sur lesquelles elle avait été formée et plus particulièrement de l’intégration de mots, c’est-à-dire la façon dont certains mots sont codés dans l’apprentissage automatique pour refléter leur signification et leur association avec d’autres. les mots, c’est ainsi que les machines apprennent et travaillent avec le langage humain. Si l’IA est formée sur des données qui associent des femmes et des hommes ayant des compétences ou des intérêts différents et spécifiques, elle générera un contenu reflétant ce biais.

L’intelligence artificielle reflète les préjugés présents dans notre société et qui se manifestent dans les données de formation à l’IA, a déclaré Dou, dans une récente interview avec ONU Femmes.

Qui développe l’IA et sur quel type de données elle est formée a des implications de genre pour les solutions basées sur l’IA.

Sola Mahfouz, chercheuse en informatique quantique à l’Université Tufts, est enthousiasmée par l’IA, mais également préoccupée. Est-ce équitable ? Dans quelle mesure cela reflète-t-il les structures patriarcales de notre société et les préjugés inhérents à ses créateurs à prédominance masculine, a-t-elle réfléchi.

Mahfouz est née en Afghanistan, où elle a été contrainte d’abandonner l’école lorsque les talibans sont entrés chez elle et ont menacé sa famille. Elle a finalement fui l’Afghanistan et a immigré aux États-Unis en 2016 pour fréquenter l’université.

Alors que les entreprises se battent pour obtenir davantage de données pour alimenter les systèmes d’IA, les chercheurs d’Epoch affirment que les entreprises technologiques pourraient manquer de données de haute qualité utilisées par l’IA d’ici 2026.

Natacha Sangwa est une étudiante rwandaise qui a participé l’année dernière au premier camp de codage organisé dans le cadre de l’African Girls Can Code Initiative. J’ai remarqué que [AI] est principalement développé par des hommes et formé sur des ensembles de données principalement basés sur des hommes, a déclaré Sangwa, qui a pu constater par elle-même l’impact que cela a sur l’expérience des femmes avec la technologie. Lorsque les femmes utilisent certains systèmes basés sur l’IA pour diagnostiquer des maladies, elles reçoivent souvent des réponses inexactes, car l’IA n’est pas consciente des symptômes qui peuvent se présenter différemment chez les femmes.

Si les tendances actuelles se poursuivent, les technologies et les services basés sur l’IA continueront de manquer de perspectives de genre et de race, et cet écart se traduira par une qualité inférieure des services, des décisions biaisées en matière d’emploi, de crédit, de soins de santé et bien plus encore.

www.actusduweb.com
Suivez Actusduweb sur Google News


Ce site utilise des cookies pour améliorer votre expérience. Nous supposerons que cela vous convient, mais vous pouvez vous désinscrire si vous le souhaitez. J'accepte Lire la suite