Informazioni per "Softmax"

Informazioni di base

Titolo visualizzatoSoftmax
Criterio di ordinamento predefinitoSoftmax
Lunghezza della pagina (in byte)2 247
ID namespace0
ID della pagina185
Lingua del contenuto della paginait - italiano
Modello del contenuto della paginawikitesto
Indicizzazione per i robotConsentito
Numero di redirect a questa pagina0
Conteggiata come una pagina di contenuto

Protezione della pagina

ModificaAutorizza tutti gli utenti (infinito)
SpostamentoAutorizza tutti gli utenti (infinito)
Visualizza il registro di protezione per questa pagina.

Cronologia delle modifiche

Creatore della paginaAlesaccoia (discussione | contributi)
Data di creazione della pagina21:31, 9 mar 2024
Ultimo contributoreAlesaccoia (discussione | contributi)
Data di ultima modifica09:06, 21 nov 2024
Numero totale di modifiche12
Numero totale di autori diversi3
Numero di modifiche recenti (negli ultimi 90 giorni)0
Numero di autori diversi recenti0

Proprietà della pagina

Template incluso (1)

Template utilizzato in questa pagina:

SEO properties

Descrizione

Contenuto

Titolo della pagina: (title)
This attribute controls the content of the <title> element.
Softmax
Title mode (title_mode)
Ulteriori informazioni
append
Article description: (description)
This attribute controls the content of the description and og:description elements.
La funzione Softmax, anche detta 'softargmax' o 'funzione esponenziale normalizzata', è una funzione di attivazione utilizzata nelle reti neurali per la classificazione multiclasse. Trasforma i logit in probabilità, evidenziando i valori più grandi e 'nascondendo' quelli più piccoli. La somma dei valori restituiti è sempre pari a 1.0. Softmax è spesso utilizzata nella sua forma logaritmica, chiamata log-softmax, per via delle sue migliori proprietà matematiche.
Article image: (image)
This attribute controls the content of the og:image element. This image is mostly displayed as a thumbnail on social media.
Softmax.png
Parole chiave: (keywords)
This attribute controls the content of the keywords and article:tag elements.
  • softmax
  • funzione di attivazione
  • reti neurali
  • logit
  • probabilità
  • classificazione multiclasse
  • sigmoide
  • log-softmax
  • pytorch
Information from Extension:WikiSEO