Funzione di attivazione: differenze tra le versioni
Nessun oggetto della modifica |
Nessun oggetto della modifica |
||
(2 versioni intermedie di uno stesso utente non sono mostrate) | |||
Riga 1: | Riga 1: | ||
{{Template concetto | |||
|NomeInglese=Activation function | |||
}} | |||
Funzione matematica posta all'uscita dei neuroni artificiali che ne modifica l'intervallo del segnale di uscita. E' normalmente una funzione non lineare, che permette alle [[Rete Neurale Artificiale (ANN)|reti neurali]] di essere degli approssimatori universali di funzione. | Funzione matematica posta all'uscita dei neuroni artificiali che ne modifica l'intervallo del segnale di uscita. E' normalmente una funzione non lineare, che permette alle [[Rete Neurale Artificiale (ANN)|reti neurali]] di essere degli approssimatori universali di funzione. | ||
Riga 12: | Riga 10: | ||
* GELU (2016): https://arxiv.org/abs/1606.08415 | * GELU (2016): https://arxiv.org/abs/1606.08415 | ||
{{#seo: | |||
|title=Funzione di attivazione | |||
|title_mode=append | |||
|keywords=funzione di attivazione, "rete neurale", "neurone artificiale", "sigmoide", "relu", "gelu", "approssimatore universale", "intelligenza artificiale", "machine learning", "deep learning" | |||
|description=Una funzione di attivazione è una funzione matematica utilizzata nelle reti neurali artificiali per introdurre non linearità nell'output dei neuroni. Questo articolo esplora diverse funzioni di attivazione come Sigmoide, RELU e GELU, spiegandone l'importanza nel rendere le reti neurali capaci di approssimare qualsiasi funzione. | |||
}} |
Versione attuale delle 13:46, 17 ago 2024
Funzione di attivazione | |
---|---|
Nome Inglese | Activation function |
Sigla |
Funzione matematica posta all'uscita dei neuroni artificiali che ne modifica l'intervallo del segnale di uscita. E' normalmente una funzione non lineare, che permette alle reti neurali di essere degli approssimatori universali di funzione.
Le funzioni di attivazione più importanti sono:
- Sigmoide
- RELU (1969): https://ieeexplore.ieee.org/document/4082265
- GELU (2016): https://arxiv.org/abs/1606.08415