XLM-RoBERTa
| XLM-RoBERTa | |
|---|---|
| Nome Inglese | Cross-lingual Language Model - Robustly optimized BERT |
| Sigla | XLM-RoBERTa |
| Anno Di Creazione | 2020 |
| Versione Corrente | |
| URL | https://openreview.net/pdf?id=SyxS0T4tvS |
| Pubblicazione | ROBERTA: A ROBUSTLY OPTIMIZED BERT PRE- TRAINING APPROACH |
| URL Pubblicazione | https://openreview.net/pdf?id=SyxS0T4tvS |
Sviluppato da Meta, versione multilingue del modello RoBERTa, progettata per gestire efficacemente più lingue.
- XLM: Cross-lingual Language Model, indicando che il modello è progettato per funzionare in più lingue.
- RoBERTa: Robustly optimized BERT approach, che è una versione migliorata di BERT (Bidirectional Encoder Representations from Transformers) con più dati di addestramento e tecniche di addestramento ottimizzate.
Supporta 100 lingue ed è particolarmente utile per compiti di elaborazione del linguaggio naturale che richiedono la comprensione e la generazione di testi in più lingue.