Causal Language Modeling (CLM): differenze tra le versioni
(Creata pagina con "Il task di predizione della prossima parola nella frase, date le parole precedenti: è quindi unidirezionale. E' uno dei due obiettivi di pre-training di ''language modeling'' insieme al Masked-Language-Modeling (MLM): è utilizzato per esempio in GPT e in genere in tutti i modelli di linguaggio sviluppati per la generazione del testo. Categoria:Concetto") |
Nessun oggetto della modifica |
||
| (5 versioni intermedie di uno stesso utente non sono mostrate) | |||
| Riga 1: | Riga 1: | ||
{{Template concetto | |||
|NomeInglese=Causal Language Modeling | |||
|Sigla=CLM | |||
}} | |||
Il task di predizione della prossima parola nella frase, date le parole precedenti: è quindi unidirezionale. | Il task di predizione della prossima parola nella frase, date le parole precedenti: è quindi unidirezionale. | ||
E' uno dei | E' uno dei possibili obiettivi di pre-training di ''language modeling'' insieme al [[Masked-Language-Modeling (MLM)]]: è utilizzato per esempio in [[GPT]] e in genere in tutti i [[Modello linguistico di grandi dimensioni|modelli]] di linguaggio sviluppati per la generazione del testo. | ||
[[Categoria: | |||
=== Links === | |||
https://huggingface.co/docs/transformers/en/tasks/language_modeling | |||
[[Categoria:Task]] | |||
Versione attuale delle 14:55, 25 nov 2024
| Causal Language Modeling (CLM) | |
|---|---|
| Nome Inglese | Causal Language Modeling |
| Sigla | CLM |
Il task di predizione della prossima parola nella frase, date le parole precedenti: è quindi unidirezionale.
E' uno dei possibili obiettivi di pre-training di language modeling insieme al Masked-Language-Modeling (MLM): è utilizzato per esempio in GPT e in genere in tutti i modelli di linguaggio sviluppati per la generazione del testo.
Links
https://huggingface.co/docs/transformers/en/tasks/language_modeling