Rete Neurale Artificiale (ANN): differenze tra le versioni

Da Wiki AI.
Nessun oggetto della modifica
 
(5 versioni intermedie di 3 utenti non mostrate)
Riga 1: Riga 1:
Nome: [[Nome::Rete Neurale Artificiale]]
{{template architettura
 
|NomeInglese=Artificial Neural Network
Sigla: [[Sigla::ANN]]
|Sigla=ANN
 
|AnnoDiCreazione=1957
Anno Di Creazione: [[AnnoDiCreazione::1957]]
|Pubblicazione=The perceptron: A probabilistic model for information storage and organization in the brain
 
|URLHomePage=https://psycnet.apa.org/record/1959-09865-001
Pubblicazione: [[Pubblicazione::The perceptron: A probabilistic model for information storage and organization in the brain]]
|Topic=Reti neurali, Classificazione
 
}}
 
{{#set: NomeInglese=Artificial Neural Network }}
 
 
Un software basato e strutturato sulla base di principi ispirati al funzionamento del cervello umano, che ha l'obiettivo di creare macchine che possano '''imparare''' come gli esseri umani. In questo senso, le reti neurali sono un campo dell'[[apprendimento automatico]].
Un software basato e strutturato sulla base di principi ispirati al funzionamento del cervello umano, che ha l'obiettivo di creare macchine che possano '''imparare''' come gli esseri umani. In questo senso, le reti neurali sono un campo dell'[[apprendimento automatico]].


==Intro==
Frank Rosenblatt, nel 1957, ''"The Perceptron: A Probabilistic Model for Information Storage and Organization in the Brain",'' propone il Perceptron come modello teorico per '''l'elaborazione delle informazioni nel cervello'''. Questo modello mira a spiegare come gli organismi superiori riconoscano pattern, generalizzino, ricordino e pensino attraverso un sistema che simula il '''funzionamento dei neuroni'''.  
Il paper ''"The Perceptron: A Probabilistic Model for Information Storage and Organization in the Brain"'' di Frank Rosenblatt propone il Perceptron come modello teorico per '''l'elaborazione delle informazioni nel cervello'''. Questo modello mira a spiegare come gli organismi superiori riconoscano pattern, generalizzino, ricordino e pensino attraverso un sistema che simula il '''funzionamento dei neuroni'''. Rosenblatt esplora due questioni centrali: come le informazioni vengono memorizzate e come influenzano il riconoscimento e il comportamento.
 
==Memoria e Rappresentazione dell'Informazione==
Il lavoro presenta due teorie sulla memorizzazione dell'informazione sensoriale:
* '''Memoria codificata''': Suggerisce che le informazioni vengano conservate come rappresentazioni o immagini codificate, permettendo una corrispondenza uno-a-uno tra stimoli sensoriali e pattern memorizzati.
* '''Rete di interruttori''': Propone che il sistema nervoso centrale funzioni come una complessa rete di interruttori, dove nuovi collegamenti si formano in risposta agli stimoli, enfatizzando l'idea di apprendimento come formazione di nuovi percorsi neurali.


==Il Modello del Perceptron==
==Il Modello del Perceptron==
Il Perceptron è presentato come un modello teorico per esplorare le '''proprietà fondamentali dei sistemi intelligenti''', facendo analogie con il '''sistema nervoso biologico''' senza soffermarsi troppo sulle specificità di organismi particolari. Questo modello utilizza la '''teoria della probabilità''' anziché la logica simbolica, distinguendosi dai modelli cerebrali precedenti che si basavano su algoritmi specifici.
Il Perceptron può apprendere attraverso '''rinforzi''' e ha la capacità di '''riconoscere e generalizzare pattern''' a partire da '''input sensoriali''' come stimoli ambientali. Rosenblatt discute dettagliatamente la struttura e il funzionamento del Perceptron, inclusa la sua capacità di formare '''connessioni''' basate su '''esperienze passate''' e di adattarsi a nuovi stimoli attraverso processi di '''rinforzo positivo e negativo'''.


===Funzionamento e Capacità di Apprendimento===
Come funziona il Perceptron, nella sua versione più semplice, con un solo neurone:
Il Perceptron può apprendere attraverso '''rinforzi''' e ha la capacità di '''riconoscere e generalizzare pattern''' a partire da '''input sensoriali''' come stimoli ambientali. Rosenblatt discute dettagliatamente la struttura e il funzionamento del Perceptron, inclusa la sua capacità di formare '''connessioni''' basate su '''esperienze passate''' e di adattarsi a nuovi stimoli attraverso processi di '''rinforzo positivo e negativo'''.
* '''Inputs''': Gli input (''x0, x1, ..., xN'') sono i segnali in entrata della rete


===Diagramma Perceptron===
* '''Pesi (Weights)''': ogni input ha un peso associato (''w1, w2, ..., wN'') più un coefficiente per il bias (''b''). Questi pesi sono parametri adattivi che il Perceptron impara durante la fase di training (''learnable parameters)''.  
La foto mostra lo schema di un '''Perceptron''', che è la forma più semplice di una '''Rete Neurale Artificiale''', come definita dal suo inventore, '''Frank Rosenblatt'''. Di seguito come funziona il Perceptron:
* '''Inputs''':
Gli input (''x0, x1, ..., xN'') sono i segnali in entrata al Perceptron. L'input ''x0'' è solitamente l'input di bias che aiuta a spostare il limite decisionale del Perceptron per migliorare l'apprendimento.
* '''Pesi (Weights)''':
Ogni input ha un peso associato (''w1, w2, ..., wN'') più un peso per il bias (''b''). Questi pesi sono parametri adattivi che il Perceptron impara durante la fase di training. Il peso ''b'' è il bias che può essere visto come il peso associato a ''x0''.
* '''Funzione lineare''':
La funzione lineare è la somma ponderata degli input. Ogni input è moltiplicato per il proprio peso e poi tutti i risultati sono sommati insieme per formare il valore intermedio ''z''. La formula è ''z = x0b + x1w1 + x2w2 + ... + xNwN''.
* '''[[Funzione di attivazione|Funzione di attivazione]]''':
Il valore intermedio ''z'' viene passato attraverso una funzione di attivazione (indicata con la lettera ''f''). Nelle versioni originali del Perceptron, questa era spesso una funzione a gradino, che trasforma l'input in un output binario. Se ''z'' è maggiore di una certa soglia, l'output ''y'' è 1, altrimenti è 0.
* '''Output''':
L'output ''y'' è il risultato del processo di attivazione e rappresenta la risposta del Perceptron agli input forniti. Questo può essere il risultato finale o può essere utilizzato come input per un altro nodo in una rete più grande.


[[File:Perceptron.png|nessuno|miniatura|600x600px|Perceptron]]
* '''Funzione lineare''': La funzione lineare è la somma ponderata degli input. Ogni valore di input viene moltiplicato per il proprio peso e poi tutti i risultati sono sommati insieme per formare il valore intermedio ''z''. La formula è ''z = x0b + x1w1 + x2w2 + ... + xNwN''.


==Limitazioni e Potenzialità==
* '''[[Funzione di attivazione|Funzione di attivazione]]''': Il valore intermedio ''z'' viene passato attraverso una funzione di attivazione (indicata con la lettera ''f''). Nelle versioni originali del Perceptron, questa era spesso una funzione a gradino, che trasforma l'input in un output binario. Se ''z'' è maggiore di una certa soglia, l'output ''y'' è 1, altrimenti è 0.
Sebbene il Perceptron mostri notevoli '''capacità di apprendimento e generalizzazione''', Rosenblatt riconosce le sue '''limitazioni''', in particolare la '''difficoltà nel gestire relazioni astratte''' o nel '''riconoscere pattern''' basati su '''relazioni spaziali''' o '''temporali complesse'''.


Rosenblatt conclude che il Perceptron offre una base promettente per ulteriori ricerche sui sistemi cognitivi, sia biologici sia artificiali. Il suo lavoro evidenzia l'importanza della '''modellazione computazionale e probabilistica''' nell'elaborazione delle informazioni e pone le basi per '''futuri sviluppi nell'intelligenza artificiale''' e nella '''comprensione dei meccanismi di apprendimento''' e '''memoria nel cervello'''.
* '''Output''': ''y'' è il risultato del processo di attivazione e rappresenta la risposta del Perceptron agli input forniti. Questo può essere il risultato finale o può essere utilizzato come input per un altro nodo in una rete più grande.
[[File:Perceptron.png|nessuno|miniatura|600x600px|Perceptron]]


==Link==
==Link==
===Paper===
[https://psycnet.apa.org/record/1959-09865-001 The perceptron: A probabilistic model for information storage and organization in the brain (1957)]: paper originale
[https://psycnet.apa.org/record/1959-09865-001 The perceptron: A probabilistic model for information storage and organization in the brain (1958)]: paper originale


[[Category:architettura]]
[[Category:architettura]]


 
{{#seo:
__SHOWFACTBOX__
            |title=Artificial Neural Network
            |title_mode=append
            |keywords=reti neurali, apprendimento automatico, intelligenza artificiale, perceptron, neuroni artificiali, modello matematico, elaborazione informazioni, apprendimento automatico supervisionato, algoritmi di apprendimento, reti neurali artificiali
            |description=Un'introduzione all'Artificial Neural Network (ANN), un modello di apprendimento automatico ispirato al funzionamento del cervello umano. Scopri come il Perceptron, proposto da Frank Rosenblatt nel 1957, elabora le informazioni e impara dai dati attraverso esempi e rinforzi. Esplora i concetti chiave come input, pesi, funzione di attivazione e output, e scopri come le ANN trovano applicazioni in vari campi.
            |image=Perceptron.png
            }}

Versione attuale delle 13:47, 17 ago 2024

Rete Neurale Artificiale (ANN)
Nome Inglese Artificial Neural Network
Sigla ANN
Anno Di Creazione 1957
Pubblicazione The perceptron: A probabilistic model for information storage and organization in the brain
URL https://psycnet.apa.org/record/1959-09865-001
Topic Reti neurali, Classificazione

Un software basato e strutturato sulla base di principi ispirati al funzionamento del cervello umano, che ha l'obiettivo di creare macchine che possano imparare come gli esseri umani. In questo senso, le reti neurali sono un campo dell'apprendimento automatico.

Frank Rosenblatt, nel 1957, "The Perceptron: A Probabilistic Model for Information Storage and Organization in the Brain", propone il Perceptron come modello teorico per l'elaborazione delle informazioni nel cervello. Questo modello mira a spiegare come gli organismi superiori riconoscano pattern, generalizzino, ricordino e pensino attraverso un sistema che simula il funzionamento dei neuroni.

Il Modello del Perceptron

Il Perceptron può apprendere attraverso rinforzi e ha la capacità di riconoscere e generalizzare pattern a partire da input sensoriali come stimoli ambientali. Rosenblatt discute dettagliatamente la struttura e il funzionamento del Perceptron, inclusa la sua capacità di formare connessioni basate su esperienze passate e di adattarsi a nuovi stimoli attraverso processi di rinforzo positivo e negativo.

Come funziona il Perceptron, nella sua versione più semplice, con un solo neurone:

  • Inputs: Gli input (x0, x1, ..., xN) sono i segnali in entrata della rete
  • Pesi (Weights): ogni input ha un peso associato (w1, w2, ..., wN) più un coefficiente per il bias (b). Questi pesi sono parametri adattivi che il Perceptron impara durante la fase di training (learnable parameters).
  • Funzione lineare: La funzione lineare è la somma ponderata degli input. Ogni valore di input viene moltiplicato per il proprio peso e poi tutti i risultati sono sommati insieme per formare il valore intermedio z. La formula è z = x0b + x1w1 + x2w2 + ... + xNwN.
  • Funzione di attivazione: Il valore intermedio z viene passato attraverso una funzione di attivazione (indicata con la lettera f). Nelle versioni originali del Perceptron, questa era spesso una funzione a gradino, che trasforma l'input in un output binario. Se z è maggiore di una certa soglia, l'output y è 1, altrimenti è 0.
  • Output: y è il risultato del processo di attivazione e rappresenta la risposta del Perceptron agli input forniti. Questo può essere il risultato finale o può essere utilizzato come input per un altro nodo in una rete più grande.
Perceptron

Link

The perceptron: A probabilistic model for information storage and organization in the brain (1957): paper originale