Rete Neurale Artificiale (ANN): differenze tra le versioni

Da Wiki AI.
Nessun oggetto della modifica
Nessun oggetto della modifica
 
(32 versioni intermedie di 3 utenti non mostrate)
Riga 1: Riga 1:
Nome: [[Nome::Rete Neurale Artificiale]]
{{template architettura
|NomeInglese=Artificial Neural Network
|Sigla=ANN
|AnnoDiCreazione=1957
|Pubblicazione=The perceptron: A probabilistic model for information storage and organization in the brain
|URLHomePage=https://psycnet.apa.org/record/1959-09865-001
|Topic=Reti neurali, Classificazione
}}
Un software basato e strutturato sulla base di principi ispirati al funzionamento del cervello umano, che ha l'obiettivo di creare macchine che possano '''imparare''' come gli esseri umani. In questo senso, le reti neurali sono un campo dell'[[apprendimento automatico]].
 
Frank Rosenblatt, nel 1957, ''"The Perceptron: A Probabilistic Model for Information Storage and Organization in the Brain",'' propone il Perceptron come modello teorico per '''l'elaborazione delle informazioni nel cervello'''. Questo modello mira a spiegare come gli organismi superiori riconoscano pattern, generalizzino, ricordino e pensino attraverso un sistema che simula il '''funzionamento dei neuroni'''.


Sigla: [[Sigla::ANN]]
==Il Modello del Perceptron==
Il Perceptron può apprendere attraverso '''rinforzi''' e ha la capacità di '''riconoscere e generalizzare pattern''' a partire da '''input sensoriali''' come stimoli ambientali. Rosenblatt discute dettagliatamente la struttura e il funzionamento del Perceptron, inclusa la sua capacità di formare '''connessioni''' basate su '''esperienze passate''' e di adattarsi a nuovi stimoli attraverso processi di '''rinforzo positivo e negativo'''.


Anno Di Creazione: [[AnnoDiCreazione::1957]]
Come funziona il Perceptron, nella sua versione più semplice, con un solo neurone:
* '''Inputs''': Gli input (''x0, x1, ..., xN'') sono i segnali in entrata della rete


{{#set:
* '''Pesi (Weights)''': ogni input ha un peso associato (''w1, w2, ..., wN'') più un coefficiente per il bias (''b''). Questi pesi sono parametri adattivi che il Perceptron impara durante la fase di  training (''learnable parameters)''.  
  Autore=Frank Rosenblatt
  Produce=[https://psycnet.apa.org/record/1959-09865-001?doi=1 The perceptron: A probabilistic model for information storage and organization in the brain.]
}}


* '''Funzione lineare''': La funzione lineare è la somma ponderata degli input. Ogni valore di input viene moltiplicato per il proprio peso e poi tutti i risultati sono sommati insieme per formare il valore intermedio ''z''. La formula è ''z = x0b + x1w1 + x2w2 + ... + xNwN''.


* '''[[Funzione di attivazione|Funzione di attivazione]]''': Il valore intermedio ''z'' viene passato attraverso una funzione di attivazione (indicata con la lettera ''f''). Nelle versioni originali del Perceptron, questa era spesso una funzione a gradino, che trasforma l'input in un output binario. Se ''z'' è maggiore di una certa soglia, l'output ''y'' è 1, altrimenti è 0.


* '''Output''': ''y'' è il risultato del processo di attivazione e rappresenta la risposta del Perceptron agli input forniti. Questo può essere il risultato finale o può essere utilizzato come input per un altro nodo in una rete più grande.
[[File:Perceptron.png|nessuno|miniatura|600x600px|Perceptron]]


Un software basato e strutturato sulla base di principi ispirati al funzionamento del cervello umano, che ha l'obiettivo di creare macchine che possano '''imparare''' come gli esseri umani. In questo senso, le reti neurali sono un campo dell'[[apprendimento automatico]].
==Link==
[https://psycnet.apa.org/record/1959-09865-001 The perceptron: A probabilistic model for information storage and organization in the brain (1957)]: paper originale


[[Category:architettura]]
[[Category:architettura]]


 
{{#seo:
__SHOWFACTBOX__
            |title=Artificial Neural Network
            |title_mode=append
            |keywords=reti neurali, apprendimento automatico, intelligenza artificiale, perceptron, neuroni artificiali, modello matematico, elaborazione informazioni, apprendimento automatico supervisionato, algoritmi di apprendimento, reti neurali artificiali
            |description=Un'introduzione all'Artificial Neural Network (ANN), un modello di apprendimento automatico ispirato al funzionamento del cervello umano. Scopri come il Perceptron, proposto da Frank Rosenblatt nel 1957, elabora le informazioni e impara dai dati attraverso esempi e rinforzi. Esplora i concetti chiave come input, pesi, funzione di attivazione e output, e scopri come le ANN trovano applicazioni in vari campi.
            |image=Perceptron.png
            }}

Versione attuale delle 13:47, 17 ago 2024

Rete Neurale Artificiale (ANN)
Nome Inglese Artificial Neural Network
Sigla ANN
Anno Di Creazione 1957
Pubblicazione The perceptron: A probabilistic model for information storage and organization in the brain
URL https://psycnet.apa.org/record/1959-09865-001
Topic Reti neurali, Classificazione

Un software basato e strutturato sulla base di principi ispirati al funzionamento del cervello umano, che ha l'obiettivo di creare macchine che possano imparare come gli esseri umani. In questo senso, le reti neurali sono un campo dell'apprendimento automatico.

Frank Rosenblatt, nel 1957, "The Perceptron: A Probabilistic Model for Information Storage and Organization in the Brain", propone il Perceptron come modello teorico per l'elaborazione delle informazioni nel cervello. Questo modello mira a spiegare come gli organismi superiori riconoscano pattern, generalizzino, ricordino e pensino attraverso un sistema che simula il funzionamento dei neuroni.

Il Modello del Perceptron

Il Perceptron può apprendere attraverso rinforzi e ha la capacità di riconoscere e generalizzare pattern a partire da input sensoriali come stimoli ambientali. Rosenblatt discute dettagliatamente la struttura e il funzionamento del Perceptron, inclusa la sua capacità di formare connessioni basate su esperienze passate e di adattarsi a nuovi stimoli attraverso processi di rinforzo positivo e negativo.

Come funziona il Perceptron, nella sua versione più semplice, con un solo neurone:

  • Inputs: Gli input (x0, x1, ..., xN) sono i segnali in entrata della rete
  • Pesi (Weights): ogni input ha un peso associato (w1, w2, ..., wN) più un coefficiente per il bias (b). Questi pesi sono parametri adattivi che il Perceptron impara durante la fase di training (learnable parameters).
  • Funzione lineare: La funzione lineare è la somma ponderata degli input. Ogni valore di input viene moltiplicato per il proprio peso e poi tutti i risultati sono sommati insieme per formare il valore intermedio z. La formula è z = x0b + x1w1 + x2w2 + ... + xNwN.
  • Funzione di attivazione: Il valore intermedio z viene passato attraverso una funzione di attivazione (indicata con la lettera f). Nelle versioni originali del Perceptron, questa era spesso una funzione a gradino, che trasforma l'input in un output binario. Se z è maggiore di una certa soglia, l'output y è 1, altrimenti è 0.
  • Output: y è il risultato del processo di attivazione e rappresenta la risposta del Perceptron agli input forniti. Questo può essere il risultato finale o può essere utilizzato come input per un altro nodo in una rete più grande.
Perceptron

Link

The perceptron: A probabilistic model for information storage and organization in the brain (1957): paper originale