Negative log-likelihood: differenze tra le versioni
(Creata pagina con "E' una delle possibili funzioni obiettivo, utilizzata per la classificazione con N classi. Dipende dalla nessuno|miniatura|500x500px|La "loss" è al massimo quando l'input è zero, al minimo quando è uno (e' la funzione logaritmica "ribaltata" e si visualizza solo la gamma da 0 a 1) senza_cornice|800x800px === Links === https://ljvmiranda921.github.io/notebook/2017/08/13/softmax-and-the-neg...") |
Nessun oggetto della modifica |
||
Riga 1: | Riga 1: | ||
E' una delle possibili [[Funzione Obiettivo (loss)|funzioni obiettivo]], utilizzata per la classificazione con N classi. | E' una delle possibili [[Funzione Obiettivo (loss)|funzioni obiettivo]], utilizzata per la classificazione con N classi. | ||
E' maggiore quando la probabilità assegnata dall'algoritmo di classificazione alla classe corretta è '''minore''', in altre parole è maggiore più il modello "sbaglia" assegnando una probabilità bassa alla classe corrette. | |||
[[File:Neg log.png|nessuno|miniatura|500x500px|La "loss" è al massimo quando l'input è zero, al minimo quando è uno (e' la funzione logaritmica "ribaltata" e si visualizza solo la gamma da 0 a 1)]] | [[File:Neg log.png|nessuno|miniatura|500x500px|La "loss" è al massimo quando l'input è zero, al minimo quando è uno (e' la funzione logaritmica "ribaltata" e si visualizza solo la gamma da 0 a 1)]] |
Versione delle 22:26, 9 mar 2024
E' una delle possibili funzioni obiettivo, utilizzata per la classificazione con N classi.
E' maggiore quando la probabilità assegnata dall'algoritmo di classificazione alla classe corretta è minore, in altre parole è maggiore più il modello "sbaglia" assegnando una probabilità bassa alla classe corrette.

Links
https://ljvmiranda921.github.io/notebook/2017/08/13/softmax-and-the-negative-log-likelihood/