Marco Dinarelli avec sa première publication dans une revue IEEE Marco Dinarelli
Web site of Marco Dinarelli in English  Site web de Marco Dinarelli en français  Sito web di Marco Dinarelli in italiano 


LIG (UMR 5217)
Office 327
700 avenue Centrale
Campus de Saint-Martin-d’Hères, France


Email:
marco [dot] dinarelli [at] univ-grenoble-alpes [dot] fr
marco [dot] dinarelli [at] gmail [dot] com

                        Curriculum Vitae           Profile de Marco Dinarelli sur LinkedIn


Dernières actualités

09 / 09 / 2024:
Soutenance de thèse de Gaëlle Laperrière à Avignon

09 / 04 / 2024:
Article accepté dans la Revue TAL : Explicabilité des modèles de TAL (64-3)

20 / 02 / 2024:
Article accepté à la conférence internationale LREC-COLING 2024

Données pour le système décrit dans le papier soumis à Interspeech 2021

Dans cette page vous pouvez télécharger les features utilisées pour les expériences décrites dans l'article accepté à Interspeech 2021, ainsi que pour la soumission à NeurIPS, y compris les modèles wav2vec 2.0 tunés sur MEDIA et les features extraites avec cesci. Pour savoir comment utiliser le système je renvoie à notre répertoire git pour Interspeech 2021.

Wav2Vec 2.0 models fine-tuned on MEDIA


Model description Link
Self-supervised fine-tuned models
W2V2-Fr-3K-large Download
W2V2-Fr-7K-large Download
XLSR53-large Download
Supervised fine-tuned models (for ASR)
W2V2-Fr-3K-large Download
W2V2-Fr-7K-large Download
XLSR53-large Download

Features

Les features doivent être utilisées comme entrée du système avec l'option --serialized-corpus data-prefix. data-prefix est le prefix commun à tous les fichiers (train, dev, test and dict). Par exemple, pour utiliser les spectrogrammes du corpus MEDIA comme features (le seul corpus fournie actuellement), l'option à utiliser dans le système est --serialized-corpus MEDIA.user+machine.spectro-Fr-Normalized.data.
Tous les fichiers (train, dev, test, dict) doivent être téléchargés pour quele système fonctionne.


Feature description
Type Train Dev Test Dict SLU Model
Spectrogram Download Download Download Download Download
W2V2-En-base Download Download Download Download Download
W2V2-En-large Download Download Download Download Download
W2V2-Fr-1K-base Download Download Download Download Download
W2V2-Fr-1K-large Download Download Download Download Download
W2V2-Fr-2.6K-base Download Download Download Download Download
W2V2-Fr-3K-base Download Download Download Download Download
W2V2-Fr-3K-large Download Download Download Download Download
W2V2-Fr-7K-base Download Download Download Download Download
W2V2-Fr-7K-large Download Download Download Download Download
XLSR53 Download Download Download Download Download
Features from self-supervised fine-tuned models
W2V2-Fr-3K-large Download Download Download Download Download
W2V2-Fr-7K-large Download Download Download Download Download
XLSR53 Download Download Download Download Download
Features from supervised fine-tuned models (for ASR)
W2V2-Fr-3K-large Download Download Download Download Download
W2V2-Fr-7K-large Download Download Download Download Download
XLSR53 Download Download Download Download Download

Résultats

Dans le tableau suivant nous montrons les résultats obtenus sur le corpus MEDIA avec le système décrit dans le papier Interspeech 202& et dans le répertoire git.

Token decoding (Word Error Rate)
Model Input Features DEV ER TEST ER
Comparison to our previous work
ICASSP 2020 Seq Spectrogram 29.42 28.71
Interspeech 2021
Kheops+Basic Spectrogram 36.25 37.16
Kheops+Basic W2V2-En-base 19.80 21.78
Kheops+Basic W2V2-En-large 24.44 26.96
Kheops+Basic W2V2-Fr-S-base 23.11 25.22
Kheops+Basic W2V2-Fr-S-large 18.48 19.92
Kheops+Basic W2V2-Fr-M-base 14.97 16.37
Kheops+Basic W2V2-Fr-M-large 11.77 12.85
Kheops+Basic XLSR53-large 14.98 15.74
Concept decoding (Concept Error Rate)
Model Input Features DEV ER TEST ER
Comparison to our previous work
ICASSP 2020 Seq Spectrogram 28.11 27.52
ICASSP 2020 XT Spectrogram 23.39 24.02
Interspeech 2021
Kheops+Basic Spectrogram 39.66 40.76
Kheops+Basic +token Spectrogram 34.38 34.74
Kheops+LSTM +SLU Spectrogram 33.63 34.76
Kheops+Basic +token W2V2-En-base 26.79 26.57
Kheops+LSTM +SLU W2V2-En-base 26.31 26.11
Kheops+Basic +token W2V2-En-large 29.31 30.39
Kheops+LSTM +SLU W2V2-En-large 28.38 28.57
Kheops+Basic +token W2V2-Fr-S-base 27.18 28.27
Kheops+LSTM +SLU W2V2-Fr-S-base 26.16 26.69
Kheops+Basic +token W2V2-Fr-S-large 23.34 23.75
Kheops+LSTM +SLU W2V2-Fr-S-large 22.53 23.03
Kheops+Basic +token W2V2-Fr-M-base 22.11 21.30
Kheops+LSTM +SLU W2V2-Fr-M-base 22.56 22.24
Kheops+Basic +token W2V2-Fr-M-large 21.72 21.35
Kheops+LSTM +SLU W2V2-Fr-M-large 18.54 18.62
Kheops+Basic +token XLSR53-large 21.00 20.67
Kheops+LSTM +SLU XLSR53-large 20.34 19.73