LayerNorm: differenze tra le versioni
Nessun oggetto della modifica |
Nessun oggetto della modifica |
||
Riga 13: | Riga 13: | ||
|title=LayerNorm | |title=LayerNorm | ||
|title_mode=append | |title_mode=append | ||
|keywords= | |keywords=reti neurali, RNN, Transformer, modelli di linguaggio, deep learning, elaborazione del linguaggio naturale, normalizzazione, layer, intelligenza artificiale | ||
|description= | |description=LayerNorm è una tecnica di normalizzazione utilizzata nei modelli di Rete Neurale Ricorrente (RNN) e Transformer. Scopri di più su questa tecnica e sul suo impatto sulle performance dei modelli. | ||
}} | }} |
Versione attuale delle 13:46, 17 ago 2024
LayerNorm | |
---|---|
Nome Inglese | LayerNorm |
Sigla | LayerNorm |
Tecnica di normalizzazione dei layer dei modelli di Rete Neurale Ricorrente (RNN) e Transformer.
Links