Microsoft limite l’accès à l’outil de reconnaissance faciale dans la refonte de l’éthique de l’IA

Microsoft est en train de réviser ses politiques d’éthique en matière d’intelligence artificielle et ne laissera plus les entreprises utiliser sa technologie pour faire des choses telles que déduire l’émotion, le sexe ou l’âge à l’aide de la technologie de reconnaissance faciale, a déclaré la société.

Dans le cadre de sa nouvelle norme d’IA responsable, Microsoft affirme avoir l’intention de maintenir les personnes et leurs objectifs au centre des décisions de conception du système. Les principes de haut niveau conduiront à de réels changements dans la pratique, selon la société, certaines fonctionnalités étant modifiées et d’autres retirées de la vente.

Le service Azure Face de Microsoft, par exemple, est un outil de reconnaissance faciale utilisé par des entreprises comme Uber dans le cadre de leurs processus de vérification d’identité. Désormais, toute entreprise souhaitant utiliser les fonctionnalités de reconnaissance faciale des services devra en faire la demande active, y compris celles qui l’ont déjà intégrée à leurs produits, pour prouver qu’elles respectent les normes d’éthique de Microsoft en matière d’IA et que les fonctionnalités profitent à l’utilisateur final et société.

Même les entreprises qui y ont accès ne pourront plus utiliser certaines des fonctionnalités les plus controversées d’Azure Face, selon Microsoft, et l’entreprise retirera la technologie d’analyse faciale qui prétend déduire des états émotionnels et des attributs tels que le sexe ou l’âge.

Nous avons collaboré avec des chercheurs internes et externes pour comprendre les limites et les avantages potentiels de cette technologie et naviguer dans les compromis, a déclaré Sarah Bird, chef de produit chez Microsoft. Dans le cas de la classification des émotions en particulier, ces efforts ont soulevé des questions importantes sur la confidentialité, l’absence de consensus sur une définition des émotions et l’incapacité de généraliser le lien entre l’expression faciale et l’état émotionnel dans les cas d’utilisation.

« , »caption »: »Inscrivez-vous à la première édition, notre newsletter quotidienne gratuite tous les matins de la semaine à 7h00 BST », »isTracking »:false, »isMainMedia »:false, »source »: »The Guardian », »sourceDomain »: « theguardian.com » »>

Inscrivez-vous à First Edition, notre newsletter quotidienne gratuite tous les matins de la semaine à 7h00 BST

Microsoft n’abandonne pas complètement la reconnaissance des émotions, l’entreprise l’utilisera toujours en interne, pour des outils d’accessibilité tels que Seeing AI, qui tentent de décrire verbalement le monde pour les utilisateurs ayant des problèmes de vision.

De même, la société a limité l’utilisation de sa technologie de voix neurale personnalisée, qui permet la création de voix synthétiques qui sonnent presque de la même manière que la source d’origine. Il est facile d’imaginer comment il pourrait être utilisé pour se faire passer pour des orateurs de manière inappropriée et tromper les auditeurs, a déclaré Natasha Crampton, responsable de l’intelligence artificielle de l’entreprise.

Plus tôt cette année, Microsoft a commencé à filigraner ses voix synthétiques, incorporant des fluctuations mineures et inaudibles dans la sortie, ce qui signifiait que l’entreprise pouvait savoir quand un enregistrement avait été réalisé à l’aide de sa technologie. Avec les progrès de la technologie neuronale TTS, qui rend la parole synthétique impossible à distinguer des voix humaines, il existe un risque de deepfakes nuisibles, a déclaré Qinying Liao de Microsoft.

www.actusduweb.com
Suivez Actusduweb sur Google News


Ce site utilise des cookies pour améliorer votre expérience. Nous supposerons que cela vous convient, mais vous pouvez vous désinscrire si vous le souhaitez. J'accepte Lire la suite