Negative log-likelihood: differenze tra le versioni

Da Wiki AI.
Nessun oggetto della modifica
Nessun oggetto della modifica
 
Riga 17: Riga 17:
             |title=Negative log-likelihood
             |title=Negative log-likelihood
             |title_mode=append
             |title_mode=append
             |keywords="funzione obiettivo", "classificazione", "loss", "algoritmo", "probabilità", "modello", "input", "logaritmica"
             |keywords=funzione obiettivo, "classificazione", "loss", "algoritmo", "probabilità", "modello", "input", "logaritmica"
             |description="La negative log-likelihood è una funzione obiettivo utilizzata per la classificazione con N classi. Il suo valore è maggiore quando la probabilità assegnata dall'algoritmo alla classe corretta è minore. In altre parole, la loss aumenta più il modello sbaglia ad assegnare una probabilità alta alla classe corretta."
             |description=La negative log-likelihood è una funzione obiettivo utilizzata per la classificazione con N classi. Il suo valore è maggiore quando la probabilità assegnata dall'algoritmo alla classe corretta è minore. In altre parole, la loss aumenta più il modello sbaglia ad assegnare una probabilità alta alla classe corretta.
             |image=Neg log demo.png
             |image=Neg log demo.png
             }}
             }}

Versione attuale delle 13:47, 17 ago 2024

Negative log-likelihood
Nome Inglese Negative log-likelihood
Sigla


E' una delle possibili funzioni obiettivo, utilizzata per la classificazione con N classi.

E' maggiore quando la probabilità assegnata dall'algoritmo di classificazione alla classe corretta è minore, in altre parole è maggiore più il modello "sbaglia" assegnando una probabilità bassa alla classe corrette.

La "loss" è al massimo quando l'input è zero, al minimo quando è uno (e' la funzione logaritmica "ribaltata" e si visualizza solo la gamma da 0 a 1)


Links

https://ljvmiranda921.github.io/notebook/2017/08/13/softmax-and-the-negative-log-likelihood/