Masked-Language-Modeling (MLM): differenze tra le versioni

Da Wiki AI.
(Creata pagina con "E' uno dei possibili obiettivi nell'ambito dell'addestramento dei Modelli di Linguaggio. Consiste nel mascherare alcuni dei token di input (circa il 15%) <source lang="python"> query = "Good morning [MASK], have a [MASK] day" inp = tokenizer(query,return_tensors='tf') mask_loc = np.where(inp.input_ids.numpy()[0] == 103)[0].tolist() out = model(inp).logits[0].numpy() predicted_tokens = np.argmax(out[mask_loc],axis=1).tolist() tokenizer.decode(predicted_tokens) #outputs...")
 
Nessun oggetto della modifica
 
(7 versioni intermedie di 3 utenti non mostrate)
Riga 1: Riga 1:
E' uno dei possibili obiettivi nell'ambito dell'addestramento dei Modelli di Linguaggio.
{{Template concetto
|NomeInglese=Masked-Language-Modeling
|Sigla=MLM
}}
E' uno dei possibili obiettivi nell'ambito dell'addestramento dei Modelli di Linguaggio. E' uno dei due obiettivi con cui è stato addestrato [[BERT]], insieme alla previsione della frase successiva ([[Next Sentence Prediction (NSP)]]).
 
Consiste nel mascherare alcuni dei token di input (circa il 15%)  
Consiste nel mascherare alcuni dei token di input (circa il 15%)  


Riga 13: Riga 18:
</source>
</source>


= Links =
https://www.analyticsvidhya.com/blog/2022/09/fine-tuning-bert-with-masked-language-modeling/
https://huggingface.co/docs/transformers/tasks/masked-language-modeling


[[Category:concetto]]
{{#seo:
[[Category:Linguaggio Naturale]]
            |title=Masked-Language-Modeling
            |title_mode=append
            |keywords=Modelli di Linguaggio, "BERT", "NLP", "Intelligenza Artificiale", "Machine Learning", "Previsione del Linguaggio", "Token", "Addestramento", "Modelli Linguistici", "Elaborazione del Linguaggio Naturale"
            |description=Il Masked-Language-Modeling (MLM) è un obiettivo di addestramento per i modelli di linguaggio. Scopri come funziona e come è stato utilizzato per addestrare BERT. Esempi di codice e link utili per approfondire.
           
            }}

Versione attuale delle 19:18, 6 set 2024

Masked-Language-Modeling (MLM)
Nome Inglese Masked-Language-Modeling
Sigla MLM

E' uno dei possibili obiettivi nell'ambito dell'addestramento dei Modelli di Linguaggio. E' uno dei due obiettivi con cui è stato addestrato BERT, insieme alla previsione della frase successiva (Next Sentence Prediction (NSP)).

Consiste nel mascherare alcuni dei token di input (circa il 15%)

query = "Good morning [MASK], have a [MASK] day"
inp = tokenizer(query,return_tensors='tf')
mask_loc = np.where(inp.input_ids.numpy()[0] == 103)[0].tolist()
out = model(inp).logits[0].numpy()
predicted_tokens = np.argmax(out[mask_loc],axis=1).tolist()
tokenizer.decode(predicted_tokens)
#outputs
>>'everybody good'

Links

https://www.analyticsvidhya.com/blog/2022/09/fine-tuning-bert-with-masked-language-modeling/

https://huggingface.co/docs/transformers/tasks/masked-language-modeling