XLM-RoBERTa: differenze tra le versioni
(Creata pagina con "XLM-RoBERTa Categoria:Modello") |
Nessun oggetto della modifica |
||
| Riga 1: | Riga 1: | ||
{{Template modello | |||
|NomeInglese=Cross-lingual Language Model - Robustly optimized BERT | |||
|Sigla=XLM-RoBERTa | |||
|AnnoDiCreazione=2020 | |||
|URL=https://openreview.net/pdf?id=SyxS0T4tvS | |||
|Pubblicazione=ROBERTA: A ROBUSTLY OPTIMIZED BERT PRE- TRAINING APPROACH | |||
|URLPubblicazione=https://openreview.net/pdf?id=SyxS0T4tvS | |||
}} | |||
XLM-RoBERTa | XLM-RoBERTa | ||
[[Categoria:Modello]] | [[Categoria:Modello]] | ||
Versione delle 19:54, 7 lug 2024
| XLM-RoBERTa | |
|---|---|
| Nome Inglese | Cross-lingual Language Model - Robustly optimized BERT |
| Sigla | XLM-RoBERTa |
| Anno Di Creazione | 2020 |
| Versione Corrente | |
| URL | https://openreview.net/pdf?id=SyxS0T4tvS |
| Pubblicazione | ROBERTA: A ROBUSTLY OPTIMIZED BERT PRE- TRAINING APPROACH |
| URL Pubblicazione | https://openreview.net/pdf?id=SyxS0T4tvS |
XLM-RoBERTa