LayerNorm: differenze tra le versioni
Nessun oggetto della modifica |
Nessun oggetto della modifica |
||
| (3 versioni intermedie di 2 utenti non mostrate) | |||
| Riga 5: | Riga 5: | ||
Tecnica di normalizzazione dei layer dei modelli di [[Rete Neurale Ricorrente (RNN)]] e [[Transformer]]. | Tecnica di normalizzazione dei layer dei modelli di [[Rete Neurale Ricorrente (RNN)]] e [[Transformer]]. | ||
https://arxiv.org/abs/1607.06450 | === Links === | ||
[https://arxiv.org/abs/1607.06450 Layer Normalization] | |||
https://www.lesswrong.com/posts/THzcKKQd4oWkg4dSP/you-can-remove-gpt2-s-layernorm-by-fine-tuning-for-an-hour | |||
{{#seo: | |||
|title=LayerNorm | |||
|title_mode=append | |||
|keywords=reti neurali, RNN, Transformer, modelli di linguaggio, deep learning, elaborazione del linguaggio naturale, normalizzazione, layer, intelligenza artificiale | |||
|description=LayerNorm è una tecnica di normalizzazione utilizzata nei modelli di Rete Neurale Ricorrente (RNN) e Transformer. Scopri di più su questa tecnica e sul suo impatto sulle performance dei modelli. | |||
}} | |||
Versione attuale delle 13:46, 17 ago 2024
| LayerNorm | |
|---|---|
| Nome Inglese | LayerNorm |
| Sigla | LayerNorm |
Tecnica di normalizzazione dei layer dei modelli di Rete Neurale Ricorrente (RNN) e Transformer.
Links