Voici les meilleurs articles sur le traitement du langage naturel de l’ACL 2022

Depuis sa création en 1962, l’Association for Computational Linguistics (ACL) est la première société scientifique et professionnelle internationale pour les personnes travaillant sur des problèmes informatiques impliquant le langage humain, un domaine souvent appelé linguistique informatique (CL) ou traitement du langage naturel ( PNL).

Les activités de l’ACL comprennent la réunion d’été annuelle et la publication (via MIT Press) de la revue Computational Linguistics.

Ce sont les 10 principaux thèmes de la conférence de cette année.

  • Apprentissage automatique pour la PNL
  • Traduction automatique et multilinguisme (multilinguisme)
  • Interprétabilité et analyse des modèles pour la PNL
  • Extraction d’informations
  • Applications PNL
  • Dialogue et systèmes interactifs
  • Ressources et évaluation
  • Sémantique
  • Réponse aux questions
  • Génération

Le résumé, les langues à faibles ressources, les technologies de la parole, la multimodalité et l’éthique ont également été abordés, quoique dans une moindre mesure.

Et le prix du meilleur article revient à

Plus de 2 000 auteurs du monde entier ont contribué à la conférence, par le biais d’articles longs ou courts (604 articles longs, 98 articles courts).

Prix ​​du meilleur article 2022
Représentations incrémentielles apprises pour l’analyse

Nikita Kitaev, doctorant ; Thomas Lu, étudiant de premier cycle, UC Berkeley ; Dan Klein, chercheur technique, Microsoft Semantic Machines et professeur, UC Berkeley

Les auteurs de cet article ont conçu une représentation pour l’analyse syntaxique qui est au maximum exempte de spéculation. Comme ils l’ont noté, les capacités humaines suggèrent que nous devrions également être capables de construire des analyseurs précis qui […] fonctionner progressivement.

Prix ​​du meilleur article thématique spécial
Exigences et motivations de la synthèse vocale à faibles ressources pour la revitalisation du langage

Aidan Pine et Patrick William Littell, Conseil national de recherches Canada; Dan Wells, doctorant et Korin Richmond, professeur associé, Université d’Édimbourg ; Nathan Brinklow, professeur, Université Queens

Les auteurs visaient à revitaliser trois langues indigènes en développant des systèmes de synthèse vocale pour elles, en réévaluant la question de la quantité de données nécessaires pour construire des systèmes de synthèse vocale à faibles ressources dotés de modèles neuronaux de pointe.

Prix ​​du meilleur document de référence

DiBiMT : une nouvelle référence pour mesurer les biais de désambiguïsation du sens des mots dans la traduction automatique
Niccol Campolungo, Federico Martelli et Roberto Navigli, Université Sapienza de Rome ; Francesco Saina, SSML Carlo Bo

Cet article met en évidence l’importance du biais dans la traduction automatique (TA). DiBiMT est une nouvelle référence pour mesurer et comprendre les biais sémantiques dans la NMT, qui va au-delà de la simple précision et fournit de nouvelles métriques qui résument à quel point les modèles NMT sont biaisés.

Prix ​​du meilleur article d’analyse linguistique

KinyaBERT : un modèle de langue kinyarwanda sensible à la morphologie

Antoine Nzeyimana, Université du Massachusetts Amherst ; Andre Niyongabo Rubungo, Université Polytechnique de Catalogne

Cet article a démontré l’efficacité de l’incorporation explicite d’informations morphologiques dans la préformation du modèle de langage. Les auteurs ont proposé une architecture BERT à deux niveaux (le premier niveau encode les informations morphologiques ; le second, les informations au niveau de la phrase) et l’ont évaluée sur la langue kinyarwanda à faible ressource et morphologiquement riche. Les auteurs ont déclaré que ce travail devrait motiver davantage de recherches sur les modèles de langage sensibles à la morphologie.

Articles exceptionnels

La richesse et la qualité des articles de la conférence se reflètent dans la liste des articles exceptionnels jugée par le comité des meilleurs articles.

L’Initiative Diversité et Inclusion 60-60

Pour célébrer son 60e anniversaire, l’ACL a lancé l’initiative 60-60 dans le but de supprimer le biais linguistique enraciné dans le paysage scientifique en général et dans la science CL en particulier.

L’inauguration de cette initiative spéciale sur la diversité et l’inclusion a déjà été adoptée par un groupe central composé d’équipes universitaires du monde entier (Université nationale de Singapour, Université de Yale, Université de l’Illinois Urbana Champaign, NYUAD et Université King Saud), de grandes technologies ( Baidu, Meta), des entreprises de moyenne technologie (AppTek), des organisations à but non lucratif (AI2), des startups (aiXplain), ainsi que des sociétés d’annotation (YaiGlobal).

L’Initiative 60-60 comporte des jalons stratégiques à atteindre d’ici 2023, notamment

  • la traduction complète de l’intégralité de l’Anthologie ACL en 60 langues ;
  • une liste complète de terminologies scientifiques et CL normalisées en 60 langues ;
  • sous-titrage multilingue en direct et doublage dans 60 langues ;
  • un référentiel complet pour toutes les discussions et vidéos de la communauté CL organisées et traduites en 60 langues.

Les volontaires sont encouragés à rejoindre cette initiative, qui vise à démocratiser les sciences CL et à maximiser la portée mondiale de CL.

www.actusduweb.com
Suivez Actusduweb sur Google News


Ce site utilise des cookies pour améliorer votre expérience. Nous supposerons que cela vous convient, mais vous pouvez vous désinscrire si vous le souhaitez. J'accepte Lire la suite