Funzione di attivazione: differenze tra le versioni

Da Wiki AI.
Nessun oggetto della modifica
Nessun oggetto della modifica
 
(3 versioni intermedie di 2 utenti non mostrate)
Riga 1: Riga 1:
{{Template concetto
|NomeInglese=Activation function
}}
Funzione matematica posta all'uscita dei neuroni artificiali che ne modifica l'intervallo del segnale di uscita. E' normalmente una funzione non lineare, che permette alle [[Rete Neurale Artificiale (ANN)|reti neurali]] di essere degli approssimatori universali di funzione.
Funzione matematica posta all'uscita dei neuroni artificiali che ne modifica l'intervallo del segnale di uscita. E' normalmente una funzione non lineare, che permette alle [[Rete Neurale Artificiale (ANN)|reti neurali]] di essere degli approssimatori universali di funzione.


Riga 7: Riga 10:
* GELU (2016): https://arxiv.org/abs/1606.08415
* GELU (2016): https://arxiv.org/abs/1606.08415


[[Category:concetto]]
{{#seo:
            |title=Funzione di attivazione
            |title_mode=append
            |keywords=funzione di attivazione, "rete neurale", "neurone artificiale", "sigmoide", "relu", "gelu", "approssimatore universale", "intelligenza artificiale", "machine learning", "deep learning"
            |description=Una funzione di attivazione è una funzione matematica utilizzata nelle reti neurali artificiali per introdurre non linearità nell'output dei neuroni. Questo articolo esplora diverse funzioni di attivazione come Sigmoide, RELU e GELU, spiegandone l'importanza nel rendere le reti neurali capaci di approssimare qualsiasi funzione.
           
            }}

Versione attuale delle 13:46, 17 ago 2024

Funzione di attivazione
Nome Inglese Activation function
Sigla

Funzione matematica posta all'uscita dei neuroni artificiali che ne modifica l'intervallo del segnale di uscita. E' normalmente una funzione non lineare, che permette alle reti neurali di essere degli approssimatori universali di funzione.

Le funzioni di attivazione più importanti sono: