Rete Neurale Artificiale (ANN)

Da Wiki AI.

Nome: Rete Neurale Artificiale

Sigla: ANN

Anno Di Creazione: 1957

Pubblicazione: The perceptron: A probabilistic model for information storage and organization in the brain



Un software basato e strutturato sulla base di principi ispirati al funzionamento del cervello umano, che ha l'obiettivo di creare macchine che possano imparare come gli esseri umani. In questo senso, le reti neurali sono un campo dell'apprendimento automatico.

Intro

Il paper "The Perceptron: A Probabilistic Model for Information Storage and Organization in the Brain" di Frank Rosenblatt propone il perceptron come modello teorico per l'elaborazione delle informazioni nel cervello. Questo modello mira a spiegare come gli organismi superiori riconoscano pattern, generalizzino, ricordino e pensino attraverso un sistema che simula il funzionamento dei neuroni. Rosenblatt esplora due questioni centrali: come le informazioni vengono memorizzate e come influenzano il riconoscimento e il comportamento.

Memoria e Rappresentazione dell'Informazione

Il lavoro presenta due teorie sulla memorizzazione dell'informazione sensoriale:

  • Memoria Codificata: Suggerisce che le informazioni vengano conservate come rappresentazioni o immagini codificate, permettendo una corrispondenza uno-a-uno tra stimoli sensoriali e pattern memorizzati.
  • Rete di Interruttori: Propone che il sistema nervoso centrale funzioni come una complessa rete di interruttori, dove nuovi collegamenti si formano in risposta agli stimoli, enfatizzando l'idea di apprendimento come formazione di nuovi percorsi neurali.

Il Modello del Perceptron

Il perceptron è presentato come un modello teorico per esplorare le proprietà fondamentali dei sistemi intelligenti, facendo analogie con il sistema nervoso biologico senza soffermarsi troppo sulle specificità di organismi particolari. Questo modello utilizza la teoria della probabilità anziché la logica simbolica, distinguendosi dai modelli cerebrali precedenti che si basavano su algoritmi specifici.

Funzionamento e Capacità di Apprendimento

Il perceptron può apprendere attraverso rinforzi e ha la capacità di riconoscere e generalizzare pattern a partire da input sensoriali. Rosenblatt discute dettagliatamente la struttura e il funzionamento del perceptron, inclusa la sua capacità di formare connessioni basate su esperienze passate e di adattarsi a nuovi stimoli attraverso processi di rinforzo positivo e negativo.

Diagramma Perceptron

La foto mostra lo schema di un Perceptron, che è la forma più semplice di una Rete Neurale Artificiale, come definita dal suo inventore, Frank Rosenblatt. Di seguito come funziona il perceptron:

  • Inputs:

Gli input (x0, x1, ..., xN) sono i segnali in entrata al perceptron. L'input x0 è solitamente l'input di bias che aiuta a spostare il limite decisionale del perceptron per migliorare l'apprendimento.

  • Pesi (Weights):

Ogni input ha un peso associato (w1, w2, ..., wN) più un peso per il bias (b). Questi pesi sono parametri adattivi che il perceptron impara durante la fase di training. Il peso b è il bias che può essere visto come il peso associato a x0.

  • Funzione lineare:

La funzione lineare è la somma ponderata degli input. Ogni input è moltiplicato per il proprio peso e poi tutti i risultati sono sommati insieme per formare il valore intermedio z. La formula è z = x0b + x1w1 + x2w2 + ... + xNwN.

Il valore intermedio z viene passato attraverso una funzione di attivazione (indicata con la lettera f). Nelle versioni originali del perceptron, questa era spesso una funzione a gradino, che trasforma l'input in un output binario. Se z è maggiore di una certa soglia, l'output y è 1, altrimenti è 0.

  • Output:

L'output y è il risultato del processo di attivazione e rappresenta la risposta del perceptron agli input forniti. Questo può essere il risultato finale o può essere utilizzato come input per un altro nodo in una rete più grande.

Perceptron

Limitazioni e Potenzialità

Sebbene il perceptron mostri notevoli capacità di apprendimento e generalizzazione, Rosenblatt riconosce le sue limitazioni, in particolare la difficoltà nel gestire relazioni astratte o nel riconoscere pattern basati su relazioni spaziali o temporali complesse. Rosenblatt conclude che il perceptron offre una base promettente per ulteriori ricerche sui sistemi cognitivi, sia biologici sia artificiali. Il suo lavoro evidenzia l'importanza della modellazione computazionale e probabilistica nell'elaborazione delle informazioni e pone le basi per futuri sviluppi nell'intelligenza artificiale e nella comprensione dei meccanismi di apprendimento e memoria nel cervello.