XLM-RoBERTa

Da Wiki AI.
XLM-RoBERTa
Nome Inglese Cross-lingual Language Model - Robustly optimized BERT
Sigla XLM-RoBERTa
Anno Di Creazione 2020
Versione Corrente
URL https://openreview.net/pdf?id=SyxS0T4tvS
Pubblicazione RoBERTa: A Robustly Optimized BERT Pretraining Approach
URL Pubblicazione https://openreview.net/pdf?id=SyxS0T4tvS

Sviluppato da Meta, versione multilingue del modello RoBERTa, progettata per gestire efficacemente più lingue.

  • XLM: Cross-lingual Language Model, indicando che il modello è progettato per funzionare in più lingue.
  • RoBERTa: Robustly optimized BERT approach, che è una versione migliorata di BERT (Bidirectional Encoder Representations from Transformers) con più dati di addestramento e tecniche di addestramento ottimizzate.

Supporta 100 lingue ed è particolarmente utile per compiti di elaborazione del linguaggio naturale che richiedono la comprensione e la generazione di testi in più lingue.