XLM-RoBERTa: differenze tra le versioni
(Creata pagina con "XLM-RoBERTa Categoria:Modello") |
Nessun oggetto della modifica |
||
Riga 1: | Riga 1: | ||
{{Template modello | |||
|NomeInglese=Cross-lingual Language Model - Robustly optimized BERT | |||
|Sigla=XLM-RoBERTa | |||
|AnnoDiCreazione=2020 | |||
|URL=https://openreview.net/pdf?id=SyxS0T4tvS | |||
|Pubblicazione=ROBERTA: A ROBUSTLY OPTIMIZED BERT PRE- TRAINING APPROACH | |||
|URLPubblicazione=https://openreview.net/pdf?id=SyxS0T4tvS | |||
}} | |||
XLM-RoBERTa | XLM-RoBERTa | ||
[[Categoria:Modello]] | [[Categoria:Modello]] |
Versione delle 19:54, 7 lug 2024
XLM-RoBERTa | |
---|---|
Nome Inglese | Cross-lingual Language Model - Robustly optimized BERT |
Sigla | XLM-RoBERTa |
Anno Di Creazione | 2020 |
Versione Corrente | |
URL | https://openreview.net/pdf?id=SyxS0T4tvS |
Pubblicazione | ROBERTA: A ROBUSTLY OPTIMIZED BERT PRE- TRAINING APPROACH |
URL Pubblicazione | https://openreview.net/pdf?id=SyxS0T4tvS |
XLM-RoBERTa