Rete Neurale Artificiale (ANN): differenze tra le versioni
Nessun oggetto della modifica |
Nessun oggetto della modifica |
||
(32 versioni intermedie di 3 utenti non mostrate) | |||
Riga 1: | Riga 1: | ||
{{template architettura | |||
|NomeInglese=Artificial Neural Network | |||
|Sigla=ANN | |||
|AnnoDiCreazione=1957 | |||
|Pubblicazione=The perceptron: A probabilistic model for information storage and organization in the brain | |||
|URLHomePage=https://psycnet.apa.org/record/1959-09865-001 | |||
|Topic=Reti neurali, Classificazione | |||
}} | |||
Un software basato e strutturato sulla base di principi ispirati al funzionamento del cervello umano, che ha l'obiettivo di creare macchine che possano '''imparare''' come gli esseri umani. In questo senso, le reti neurali sono un campo dell'[[apprendimento automatico]]. | |||
Frank Rosenblatt, nel 1957, ''"The Perceptron: A Probabilistic Model for Information Storage and Organization in the Brain",'' propone il Perceptron come modello teorico per '''l'elaborazione delle informazioni nel cervello'''. Questo modello mira a spiegare come gli organismi superiori riconoscano pattern, generalizzino, ricordino e pensino attraverso un sistema che simula il '''funzionamento dei neuroni'''. | |||
==Il Modello del Perceptron== | |||
Il Perceptron può apprendere attraverso '''rinforzi''' e ha la capacità di '''riconoscere e generalizzare pattern''' a partire da '''input sensoriali''' come stimoli ambientali. Rosenblatt discute dettagliatamente la struttura e il funzionamento del Perceptron, inclusa la sua capacità di formare '''connessioni''' basate su '''esperienze passate''' e di adattarsi a nuovi stimoli attraverso processi di '''rinforzo positivo e negativo'''. | |||
Come funziona il Perceptron, nella sua versione più semplice, con un solo neurone: | |||
* '''Inputs''': Gli input (''x0, x1, ..., xN'') sono i segnali in entrata della rete | |||
* '''Pesi (Weights)''': ogni input ha un peso associato (''w1, w2, ..., wN'') più un coefficiente per il bias (''b''). Questi pesi sono parametri adattivi che il Perceptron impara durante la fase di training (''learnable parameters)''. | |||
* '''Funzione lineare''': La funzione lineare è la somma ponderata degli input. Ogni valore di input viene moltiplicato per il proprio peso e poi tutti i risultati sono sommati insieme per formare il valore intermedio ''z''. La formula è ''z = x0b + x1w1 + x2w2 + ... + xNwN''. | |||
* '''[[Funzione di attivazione|Funzione di attivazione]]''': Il valore intermedio ''z'' viene passato attraverso una funzione di attivazione (indicata con la lettera ''f''). Nelle versioni originali del Perceptron, questa era spesso una funzione a gradino, che trasforma l'input in un output binario. Se ''z'' è maggiore di una certa soglia, l'output ''y'' è 1, altrimenti è 0. | |||
* '''Output''': ''y'' è il risultato del processo di attivazione e rappresenta la risposta del Perceptron agli input forniti. Questo può essere il risultato finale o può essere utilizzato come input per un altro nodo in una rete più grande. | |||
[[File:Perceptron.png|nessuno|miniatura|600x600px|Perceptron]] | |||
==Link== | |||
[https://psycnet.apa.org/record/1959-09865-001 The perceptron: A probabilistic model for information storage and organization in the brain (1957)]: paper originale | |||
[[Category:architettura]] | [[Category:architettura]] | ||
{{#seo: | |||
|title=Artificial Neural Network | |||
|title_mode=append | |||
|keywords=reti neurali, apprendimento automatico, intelligenza artificiale, perceptron, neuroni artificiali, modello matematico, elaborazione informazioni, apprendimento automatico supervisionato, algoritmi di apprendimento, reti neurali artificiali | |||
|description=Un'introduzione all'Artificial Neural Network (ANN), un modello di apprendimento automatico ispirato al funzionamento del cervello umano. Scopri come il Perceptron, proposto da Frank Rosenblatt nel 1957, elabora le informazioni e impara dai dati attraverso esempi e rinforzi. Esplora i concetti chiave come input, pesi, funzione di attivazione e output, e scopri come le ANN trovano applicazioni in vari campi. | |||
|image=Perceptron.png | |||
}} |
Versione attuale delle 13:47, 17 ago 2024
Rete Neurale Artificiale (ANN) | |
---|---|
Nome Inglese | Artificial Neural Network |
Sigla | ANN |
Anno Di Creazione | 1957 |
Pubblicazione | The perceptron: A probabilistic model for information storage and organization in the brain |
URL | https://psycnet.apa.org/record/1959-09865-001 |
Topic | Reti neurali, Classificazione |
Un software basato e strutturato sulla base di principi ispirati al funzionamento del cervello umano, che ha l'obiettivo di creare macchine che possano imparare come gli esseri umani. In questo senso, le reti neurali sono un campo dell'apprendimento automatico.
Frank Rosenblatt, nel 1957, "The Perceptron: A Probabilistic Model for Information Storage and Organization in the Brain", propone il Perceptron come modello teorico per l'elaborazione delle informazioni nel cervello. Questo modello mira a spiegare come gli organismi superiori riconoscano pattern, generalizzino, ricordino e pensino attraverso un sistema che simula il funzionamento dei neuroni.
Il Modello del Perceptron
Il Perceptron può apprendere attraverso rinforzi e ha la capacità di riconoscere e generalizzare pattern a partire da input sensoriali come stimoli ambientali. Rosenblatt discute dettagliatamente la struttura e il funzionamento del Perceptron, inclusa la sua capacità di formare connessioni basate su esperienze passate e di adattarsi a nuovi stimoli attraverso processi di rinforzo positivo e negativo.
Come funziona il Perceptron, nella sua versione più semplice, con un solo neurone:
- Inputs: Gli input (x0, x1, ..., xN) sono i segnali in entrata della rete
- Pesi (Weights): ogni input ha un peso associato (w1, w2, ..., wN) più un coefficiente per il bias (b). Questi pesi sono parametri adattivi che il Perceptron impara durante la fase di training (learnable parameters).
- Funzione lineare: La funzione lineare è la somma ponderata degli input. Ogni valore di input viene moltiplicato per il proprio peso e poi tutti i risultati sono sommati insieme per formare il valore intermedio z. La formula è z = x0b + x1w1 + x2w2 + ... + xNwN.
- Funzione di attivazione: Il valore intermedio z viene passato attraverso una funzione di attivazione (indicata con la lettera f). Nelle versioni originali del Perceptron, questa era spesso una funzione a gradino, che trasforma l'input in un output binario. Se z è maggiore di una certa soglia, l'output y è 1, altrimenti è 0.
- Output: y è il risultato del processo di attivazione e rappresenta la risposta del Perceptron agli input forniti. Questo può essere il risultato finale o può essere utilizzato come input per un altro nodo in una rete più grande.

Link
The perceptron: A probabilistic model for information storage and organization in the brain (1957): paper originale