Rete Neurale Artificiale (ANN): differenze tra le versioni

Da Wiki AI.
Nessun oggetto della modifica
 
(18 versioni intermedie di 3 utenti non mostrate)
Riga 1: Riga 1:
Nome: [[Nome::Rete Neurale Artificiale]]
{{template architettura
|NomeInglese=Artificial Neural Network
|Sigla=ANN
|AnnoDiCreazione=1957
|Pubblicazione=The perceptron: A probabilistic model for information storage and organization in the brain
|URLHomePage=https://psycnet.apa.org/record/1959-09865-001
|Topic=Reti neurali, Classificazione
}}
Un software basato e strutturato sulla base di principi ispirati al funzionamento del cervello umano, che ha l'obiettivo di creare macchine che possano '''imparare''' come gli esseri umani. In questo senso, le reti neurali sono un campo dell'[[apprendimento automatico]].


Sigla: [[Sigla::ANN]]
Frank Rosenblatt, nel 1957, ''"The Perceptron: A Probabilistic Model for Information Storage and Organization in the Brain",'' propone il Perceptron come modello teorico per '''l'elaborazione delle informazioni nel cervello'''. Questo modello mira a spiegare come gli organismi superiori riconoscano pattern, generalizzino, ricordino e pensino attraverso un sistema che simula il '''funzionamento dei neuroni'''.


Anno Di Creazione: [[AnnoDiCreazione::1957]]
==Il Modello del Perceptron==
Il Perceptron può apprendere attraverso '''rinforzi''' e ha la capacità di '''riconoscere e generalizzare pattern''' a partire da '''input sensoriali''' come stimoli ambientali. Rosenblatt discute dettagliatamente la struttura e il funzionamento del Perceptron, inclusa la sua capacità di formare '''connessioni''' basate su '''esperienze passate''' e di adattarsi a nuovi stimoli attraverso processi di '''rinforzo positivo e negativo'''.


Pubblicazione: [[Pubblicazione::The perceptron: A probabilistic model for information storage and organization in the brain]]
Come funziona il Perceptron, nella sua versione più semplice, con un solo neurone:
* '''Inputs''': Gli input (''x0, x1, ..., xN'') sono i segnali in entrata della rete


* '''Pesi (Weights)''': ogni input ha un peso associato (''w1, w2, ..., wN'') più un coefficiente per il bias (''b''). Questi pesi sono parametri adattivi che il Perceptron impara durante la fase di  training (''learnable parameters)''.


{{#set: NomeInglese=Artificial Neural Network }}
* '''Funzione lineare''': La funzione lineare è la somma ponderata degli input. Ogni valore di input viene moltiplicato per il proprio peso e poi tutti i risultati sono sommati insieme per formare il valore intermedio ''z''. La formula è ''z = x0b + x1w1 + x2w2 + ... + xNwN''.


* '''[[Funzione di attivazione|Funzione di attivazione]]''': Il valore intermedio ''z'' viene passato attraverso una funzione di attivazione (indicata con la lettera ''f''). Nelle versioni originali del Perceptron, questa era spesso una funzione a gradino, che trasforma l'input in un output binario. Se ''z'' è maggiore di una certa soglia, l'output ''y'' è 1, altrimenti è 0.


Un software basato e strutturato sulla base di principi ispirati al funzionamento del cervello umano, che ha l'obiettivo di creare macchine che possano '''imparare''' come gli esseri umani. In questo senso, le reti neurali sono un campo dell'[[apprendimento automatico]].
* '''Output''': ''y'' è il risultato del processo di attivazione e rappresenta la risposta del Perceptron agli input forniti. Questo può essere il risultato finale o può essere utilizzato come input per un altro nodo in una rete più grande.
 
[[File:Perceptron.png|nessuno|miniatura|600x600px|Perceptron]]
==Diagramma==
La foto mostra lo schema di un '''Perceptron''', che è la forma più semplice di una '''Rete Neurale Artificiale''', come definita dal suo inventore, '''Frank Rosenblatt'''. Ecco come funziona il perceptron seguendo lo schema fornito:
* '''Inputs''':
Gli input (''x0, x1, ..., xN'') sono i segnali in entrata al perceptron. L'input ''x0'' è solitamente l'input di bias che aiuta a spostare il limite decisionale del perceptron per migliorare l'apprendimento.
* '''Pesi (Weights)''':
Ogni input ha un peso associato (''w1, w2, ..., wN'') più un peso per il bias (''b''). Questi pesi sono parametri adattivi che il perceptron impara durante la fase di training. Il peso ''b'' è il bias che può essere visto come il peso associato a ''x0''.
* '''Funzione Lineare''':
La funzione lineare è la somma ponderata degli input. Ogni input è moltiplicato per il proprio peso e poi tutti i risultati sono sommati insieme per formare il valore intermedio ''z''. La formula è ''z = x0b + x1w1 + x2w2 + ... + xNwN''.
* '''[[Funzione di attivazione|Funzione di attivazione]]''':
Il valore intermedio ''z'' viene passato attraverso una funzione di attivazione (indicata con la lettera ''f''). Nelle versioni originali del perceptron, questa era spesso una funzione a gradino, che trasforma l'input in un output binario. Se ''z'' è maggiore di una certa soglia, l'output ''y'' è 1, altrimenti è 0.
* '''Output''':
L'output ''y'' è il risultato del processo di attivazione e rappresenta la risposta del perceptron agli input forniti. Questo può essere il risultato finale o può essere utilizzato come input per un altro nodo in una rete più grande.


[[File:Perceptron.png|nessuno|miniatura|600x600px|Perceptron]]
==Link==
[https://psycnet.apa.org/record/1959-09865-001 The perceptron: A probabilistic model for information storage and organization in the brain (1957)]: paper originale


[[Category:architettura]]
[[Category:architettura]]


 
{{#seo:
__SHOWFACTBOX__
            |title=Artificial Neural Network
            |title_mode=append
            |keywords=reti neurali, apprendimento automatico, intelligenza artificiale, perceptron, neuroni artificiali, modello matematico, elaborazione informazioni, apprendimento automatico supervisionato, algoritmi di apprendimento, reti neurali artificiali
            |description=Un'introduzione all'Artificial Neural Network (ANN), un modello di apprendimento automatico ispirato al funzionamento del cervello umano. Scopri come il Perceptron, proposto da Frank Rosenblatt nel 1957, elabora le informazioni e impara dai dati attraverso esempi e rinforzi. Esplora i concetti chiave come input, pesi, funzione di attivazione e output, e scopri come le ANN trovano applicazioni in vari campi.
            |image=Perceptron.png
            }}

Versione attuale delle 13:47, 17 ago 2024

Rete Neurale Artificiale (ANN)
Nome Inglese Artificial Neural Network
Sigla ANN
Anno Di Creazione 1957
Pubblicazione The perceptron: A probabilistic model for information storage and organization in the brain
URL https://psycnet.apa.org/record/1959-09865-001
Topic Reti neurali, Classificazione

Un software basato e strutturato sulla base di principi ispirati al funzionamento del cervello umano, che ha l'obiettivo di creare macchine che possano imparare come gli esseri umani. In questo senso, le reti neurali sono un campo dell'apprendimento automatico.

Frank Rosenblatt, nel 1957, "The Perceptron: A Probabilistic Model for Information Storage and Organization in the Brain", propone il Perceptron come modello teorico per l'elaborazione delle informazioni nel cervello. Questo modello mira a spiegare come gli organismi superiori riconoscano pattern, generalizzino, ricordino e pensino attraverso un sistema che simula il funzionamento dei neuroni.

Il Modello del Perceptron

Il Perceptron può apprendere attraverso rinforzi e ha la capacità di riconoscere e generalizzare pattern a partire da input sensoriali come stimoli ambientali. Rosenblatt discute dettagliatamente la struttura e il funzionamento del Perceptron, inclusa la sua capacità di formare connessioni basate su esperienze passate e di adattarsi a nuovi stimoli attraverso processi di rinforzo positivo e negativo.

Come funziona il Perceptron, nella sua versione più semplice, con un solo neurone:

  • Inputs: Gli input (x0, x1, ..., xN) sono i segnali in entrata della rete
  • Pesi (Weights): ogni input ha un peso associato (w1, w2, ..., wN) più un coefficiente per il bias (b). Questi pesi sono parametri adattivi che il Perceptron impara durante la fase di training (learnable parameters).
  • Funzione lineare: La funzione lineare è la somma ponderata degli input. Ogni valore di input viene moltiplicato per il proprio peso e poi tutti i risultati sono sommati insieme per formare il valore intermedio z. La formula è z = x0b + x1w1 + x2w2 + ... + xNwN.
  • Funzione di attivazione: Il valore intermedio z viene passato attraverso una funzione di attivazione (indicata con la lettera f). Nelle versioni originali del Perceptron, questa era spesso una funzione a gradino, che trasforma l'input in un output binario. Se z è maggiore di una certa soglia, l'output y è 1, altrimenti è 0.
  • Output: y è il risultato del processo di attivazione e rappresenta la risposta del Perceptron agli input forniti. Questo può essere il risultato finale o può essere utilizzato come input per un altro nodo in una rete più grande.
Perceptron

Link

The perceptron: A probabilistic model for information storage and organization in the brain (1957): paper originale