XLM-RoBERTa: differenze tra le versioni
(Creata pagina con "XLM-RoBERTa Categoria:Modello") |
Nessun oggetto della modifica |
||
(4 versioni intermedie di 2 utenti non mostrate) | |||
Riga 1: | Riga 1: | ||
XLM-RoBERTa | {{Template modello | ||
|NomeInglese=Cross-lingual Language Model - Robustly optimized BERT | |||
|Sigla=XLM-RoBERTa | |||
|AnnoDiCreazione=2020 | |||
|URL=https://openreview.net/pdf?id=SyxS0T4tvS | |||
|Pubblicazione=RoBERTa: A Robustly Optimized BERT Pretraining Approach | |||
|URLPubblicazione=https://openreview.net/pdf?id=SyxS0T4tvS | |||
}} | |||
Sviluppato da [[Meta]], versione multilingue del modello [[RoBERTa]], progettata per gestire efficacemente più lingue. | |||
* '''XLM''': [[Modello di Linguaggio Multilingue|Cross-lingual Language Model]], indicando che il modello è progettato per funzionare in più lingue. | |||
* '''RoBERTa''': Robustly optimized BERT approach, che è una versione migliorata di BERT (Bidirectional Encoder Representations from Transformers) con più dati di addestramento e tecniche di addestramento ottimizzate. | |||
Supporta 100 lingue ed è particolarmente utile per compiti di elaborazione del linguaggio naturale che richiedono la comprensione e la generazione di testi in più lingue. | |||
[[Categoria:Modello]] | [[Categoria:Modello]] | ||
{{#seo: | |||
|title=XLM-RoBERTa | |||
|title_mode=append | |||
|keywords=elaborazione del linguaggio naturale, traduzione automatica, multilingue, modello linguistico, intelligenza artificiale, apprendimento automatico, BERT, RoBERTa, Meta, NLP | |||
|description=XLM-RoBERTa è un modello di linguaggio multilingue sviluppato da Meta, basato su RoBERTa. Supporta 100 lingue ed è particolarmente utile per compiti di elaborazione del linguaggio naturale come la traduzione automatica e la generazione di testo multilingue. | |||
}} |
Versione attuale delle 13:28, 10 set 2024
XLM-RoBERTa | |
---|---|
Nome Inglese | Cross-lingual Language Model - Robustly optimized BERT |
Sigla | XLM-RoBERTa |
Anno Di Creazione | 2020 |
Versione Corrente | |
URL | https://openreview.net/pdf?id=SyxS0T4tvS |
Pubblicazione | RoBERTa: A Robustly Optimized BERT Pretraining Approach |
URL Pubblicazione | https://openreview.net/pdf?id=SyxS0T4tvS |
Sviluppato da Meta, versione multilingue del modello RoBERTa, progettata per gestire efficacemente più lingue.
- XLM: Cross-lingual Language Model, indicando che il modello è progettato per funzionare in più lingue.
- RoBERTa: Robustly optimized BERT approach, che è una versione migliorata di BERT (Bidirectional Encoder Representations from Transformers) con più dati di addestramento e tecniche di addestramento ottimizzate.
Supporta 100 lingue ed è particolarmente utile per compiti di elaborazione del linguaggio naturale che richiedono la comprensione e la generazione di testi in più lingue.