Elon Musk a licencié l’équipe d’IA éthique de Twitter

Alors que de plus en plus de problèmes liés à l’IA sont apparus, notamment des préjugés liés à la race, au sexe et à l’âge, de nombreuses entreprises technologiques ont installé des équipes d’IA éthiques ostensiblement dédiées à l’identification et à l’atténuation de ces problèmes.

L’unité META de Twitter a été plus progressiste que la plupart en publiant les détails des problèmes avec les systèmes d’IA de l’entreprise et en permettant à des chercheurs extérieurs de sonder ses algorithmes pour de nouveaux problèmes.

L’année dernière, après que les utilisateurs de Twitter ont remarqué qu’un algorithme de recadrage de photos semblait favoriser les visages blancs lors du choix de la façon de rogner les images, Twitter a pris la décision inhabituelle de laisser son unité META publier les détails du biais qu’elle a découvert. Le groupe a également lancé l’un des tout premiers concours de primes sur les biais, qui a permis à des chercheurs extérieurs de tester l’algorithme pour d’autres problèmes. En octobre dernier, l’équipe de Chowdhurys a également publié des détails sur les préjugés politiques involontaires sur Twitter, montrant comment les sources d’information de droite étaient, en fait, plus promues que celles de gauche.

De nombreux chercheurs extérieurs ont vu les licenciements comme un coup dur, non seulement pour Twitter, mais pour les efforts visant à améliorer l’IA. Quelle tragédie, a écrit sur Twitter Kate Starbird, professeure associée à l’Université de Washington qui étudie la désinformation en ligne.

Contenu Twitter

Ce contenu peut également être consulté sur le site est originaire de.

L’équipe META était l’une des seules bonnes études de cas d’une entreprise technologique dirigeant un groupe d’éthique de l’IA qui interagit avec le public et le milieu universitaire avec une crédibilité substantielle, déclare Ali Alkhatib, directeur du Center for Applied Data Ethics de l’Université de San Francisco.

Alkhatib dit que Chowdhury est incroyablement bien considérée au sein de la communauté de l’éthique de l’IA et que son équipe a fait un travail vraiment précieux en tenant Big Tech responsable. Il n’y a pas beaucoup d’équipes d’éthique d’entreprise qui méritent d’être prises au sérieux, dit-il. C’était l’un de ceux dont j’enseignais le travail dans les classes.

Mark Riedl, professeur étudiant l’IA à Georgia Tech, affirme que les algorithmes utilisés par Twitter et d’autres géants des médias sociaux ont un impact énorme sur la vie des gens et doivent être étudiés. Que META ait eu un impact à l’intérieur de Twitter est difficile à discerner de l’extérieur, mais la promesse était là, dit-il.

Riedl ajoute que laisser des étrangers sonder les algorithmes de Twitter était une étape importante vers plus de transparence et de compréhension des problèmes liés à l’IA. Ils devenaient un chien de garde qui pourrait aider le reste d’entre nous à comprendre comment l’IA nous affectait, dit-il. Les chercheurs de META avaient des références exceptionnelles avec une longue histoire d’étude de l’IA pour le bien social.

Quant à l’idée de Musk d’ouvrir l’algorithme de Twitter, la réalité serait bien plus compliquée. Il existe de nombreux algorithmes différents qui affectent la façon dont les informations sont présentées, et il est difficile de les comprendre sans les données en temps réel qu’ils reçoivent en termes de tweets, de vues et de likes.

L’idée qu’il existe un algorithme avec une orientation politique explicite pourrait simplifier à l’excès un système qui peut abriter des préjugés et des problèmes plus insidieux. Les découvrir est précisément le genre de travail que faisait le groupe META de Twitter. Il n’y a pas beaucoup de groupes qui étudient rigoureusement les biais et les erreurs de leurs propres algorithmes, déclare Alkhatib de l’Université de San Francisco. META a fait ça. Et maintenant, ce n’est plus le cas.

www.actusduweb.com
Suivez Actusduweb sur Google News


Ce site utilise des cookies pour améliorer votre expérience. Nous supposerons que cela vous convient, mais vous pouvez vous désinscrire si vous le souhaitez. J'accepte Lire la suite