Tutti i registri pubblici
Presentazione unificata di tutti i registri di Wiki AI. È possibile restringere i criteri di ricerca selezionando il tipo di registro, l'utente che ha eseguito l'azione, e/o la pagina interessata (entrambi i campi sono sensibili al maiuscolo/minuscolo).
- 18:00, 25 mar 2024 Alesaccoia discussione contributi ha spostato la pagina Transformer a Transformer (Architettura di Deep Learning)
- 20:33, 23 mar 2024 Alesaccoia discussione contributi ha creato la pagina Transformer (Creata pagina con "Architettura proposta originariamente sul paper Attention Is All You Need (2017), composta da un Encoder e un Decoder. * Vengono chiamati "Transformer Encoder" i modelli bidirezionali (Encoder-Only) come BERT, che utilizzando come obiettivo di pre-training il Masked-Language-Modeling (MLM), necessitano che la rappresentazione fonda sia il contesto a destra che quello a sinistra del token che dev'essere predetto, quindi utilizzano una self-attention bidirezio...") Etichetta: Modifica visuale: commutato