Un conseiller de Paravision appelle à une nouvelle perspective pour une IA responsable | Mise à jour biométrique

Un conseiller de Paravision appelle à une nouvelle perspective pour une IA responsable

Les communautés ont atteint le stade où elles se lèvent pour dire que la situation actuelle autour de l’éthique et des préjugés dans l’intelligence artificielle n’est pas assez bonne, et tout le monde peut commencer à apprendre et à promouvoir une intelligence artificielle responsable, déclare Elizabeth M. Adams, responsable de l’éthique de l’IA conseiller pour Paravision et PDG du cabinet de conseil EMA Advisory Services. Pendant ce temps, Amazon accorde à une équipe de chercheurs en IA de l’Université de l’Iowa et de la Louisiana State University 800 000 $ US pour réduire la discrimination dans les algorithmes d’IA.

L’IA responsable doit être prise aussi au sérieux que la cybersécurité

Nous devons penser à l’IA responsable comme nous pensons à la cybersécurité, a déclaré Elizabeth M. Adams dans une présentation sur la lutte contre les biais historiques perpétuels de l’IA pour l’Opus College of Business de l’Université de St. Thomas, Minnesota.

Après des années de développement rapide et d’application dans le monde réel, les technologies d’intelligence artificielle font face à une sorte de contrecoup : que se passe-t-il lorsque nos mondes technologiques et nos mondes sociaux entrent en collision, a déclaré Adams, qui se décrit comme une adepte de la technologie et une futuriste passionnée.

Adams, qui poursuit elle-même un doctorat à Pepperdine sur les biais en IA, a décrit le nombre de personnes qui entrent en contact avec les technologies en cours de développement, au-delà du personnel technique. De l’approbation du budget à l’affectation des équipes, en passant par la production du marketing, la formation et le service client, plusieurs départements sont impliqués.

C’est une bonne chose pour augmenter le nombre d’yeux sur les développements, la diversité des personnes impliquées et le nombre d’opportunités pour quelqu’un de repousser ou de remettre en question une technologie pendant le cycle de développement du produit.

Il est très important d’avoir les bonnes personnes, les bonnes voix autour de la table lorsque vous concevez votre technologie, a déclaré Adams. Tout le monde appartient à une communauté et a un récit, qui peuvent tous être réunis pour améliorer les responsabilités autour de l’intelligence artificielle.

L’IA responsable n’est pas quelque chose de facile à définir et se résume à une prise de conscience. Une prise de conscience des préjugés perpétués dans l’intelligence artificielle, des dangers potentiels des approches de l’IA telles que le grattage d’Internet et des médias sociaux pour les bases de données de formation, une prise de conscience des méfaits.

Adams et son cabinet de conseil consultent les organisations sur le leadership autour de l’IA responsable. Mais elle croit que c’est quelque chose pour tout le monde à tous les niveaux pour en savoir plus et aider les autres à apprendre.

Il y a quelques années, Adams a cofondé la coalition Public Oversight of Surveillance Technology and Military Equipment dans la ville de Minneapolis. Il ne s’agissait pas d’interdire des choses, a déclaré Adams, mais d’une réaction à une augmentation de l’utilisation de l’IA en ville, dans le domaine de la technologie civique, qui couvre la reconnaissance faciale, les drones et la biométrie de la démarche.

Lorsqu’un fournisseur de logiciels qui ne se souciait pas de l’éthique de l’IA a été utilisé dans la ville, Adams s’est rendu compte que c’était la raison pour laquelle nous avions besoin d’une réglementation, car si nous laissons cela aux experts de l’industrie ou aux fournisseurs de technologie, nous risquons de ne pas obtenir une technologie sûre ou une technologie impartiale.

Adams espère insuffler un sens des responsabilités dans l’IA au-delà des domaines de l’entreprise et de la technologie. Si vous aimez l’art, suivez votre curiosité autour de l’IA dans l’art, a-t-elle dit, pour aider les gens à trouver leurs incursions dans les technologies qui changent déjà nos vies pour toujours.

Amazon et la National Science Foundation accordent une subvention de 800 000 $ pour réduire les biais liés à l’IA

Une subvention de 800 000 $ sur trois ans est répartie entre des chercheurs de l’Université de l’Iowa et de la Louisiana State University pour développer des moyens de réduire la possibilité de discrimination grâce à des algorithmes d’apprentissage automatique, rapporte le Daily Iowan.

Le financement provient de la National Science Foundation et d’Amazon, qui fait actuellement face à de multiples procès sur des problèmes de confidentialité des données et a récemment été critiqué pour avoir utilisé des taux d’erreur déséquilibrés pour tester son logiciel biométrique Rekognition.

Un chercheur de l’Université de l’Iowa a déclaré que l’équipe avait l’intention de rendre les modèles d’apprentissage automatique plus justes sans sacrifier la précision des algorithmes. Les chercheurs examineront les logiciels utilisés par les tribunaux pour prédire la récidive, la manière dont les ressources médicales sont allouées aux quartiers et travailleront avec Netflix pour travailler sur l’équité dans la recommandation de contenu.

Sujets d’articles

IA | biais | biométrie | éthique | reconnaissance faciale | Paravision | réglementation | recherche et développement | IA responsable

www.actusduweb.com
Suivez Actusduweb sur Google News


Ce site utilise des cookies pour améliorer votre expérience. Nous supposerons que cela vous convient, mais vous pouvez vous désinscrire si vous le souhaitez. J'accepte Lire la suite