<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="it">
	<id>https://wiki.mindmaker.it/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=Ilaria+Maserati</id>
	<title>Wiki AI - Contributi dell&#039;utente [it]</title>
	<link rel="self" type="application/atom+xml" href="https://wiki.mindmaker.it/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=Ilaria+Maserati"/>
	<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php/Speciale:Contributi/Ilaria_Maserati"/>
	<updated>2026-05-02T00:25:16Z</updated>
	<subtitle>Contributi dell&amp;#039;utente</subtitle>
	<generator>MediaWiki 1.41.0</generator>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Rete_Neurale_Artificiale_(ANN)&amp;diff=2215</id>
		<title>Rete Neurale Artificiale (ANN)</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Rete_Neurale_Artificiale_(ANN)&amp;diff=2215"/>
		<updated>2024-04-11T15:13:09Z</updated>

		<summary type="html">&lt;p&gt;Ilaria Maserati: /* Paper */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Nome: [[Nome::Rete Neurale Artificiale]]&lt;br /&gt;
&lt;br /&gt;
Sigla: [[Sigla::ANN]]&lt;br /&gt;
&lt;br /&gt;
Anno Di Creazione: [[AnnoDiCreazione::1957]]&lt;br /&gt;
&lt;br /&gt;
Pubblicazione: [[Pubblicazione::The perceptron: A probabilistic model for information storage and organization in the brain]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{#set: NomeInglese=Artificial Neural Network }}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Un software basato e strutturato sulla base di principi ispirati al funzionamento del cervello umano, che ha l&#039;obiettivo di creare macchine che possano &#039;&#039;&#039;imparare&#039;&#039;&#039; come gli esseri umani. In questo senso, le reti neurali sono un campo dell&#039;[[apprendimento automatico]].&lt;br /&gt;
&lt;br /&gt;
==Intro==&lt;br /&gt;
Il paper &#039;&#039;&amp;quot;The Perceptron: A Probabilistic Model for Information Storage and Organization in the Brain&amp;quot;&#039;&#039; di Frank Rosenblatt propone il Perceptron come modello teorico per &#039;&#039;&#039;l&#039;elaborazione delle informazioni nel cervello&#039;&#039;&#039;. Questo modello mira a spiegare come gli organismi superiori riconoscano pattern, generalizzino, ricordino e pensino attraverso un sistema che simula il &#039;&#039;&#039;funzionamento dei neuroni&#039;&#039;&#039;. Rosenblatt esplora due questioni centrali: come le informazioni vengono memorizzate e come influenzano il riconoscimento e il comportamento.&lt;br /&gt;
&lt;br /&gt;
==Memoria e Rappresentazione dell&#039;Informazione==&lt;br /&gt;
Il lavoro presenta due teorie sulla memorizzazione dell&#039;informazione sensoriale:&lt;br /&gt;
* &#039;&#039;&#039;Memoria codificata&#039;&#039;&#039;: Suggerisce che le informazioni vengano conservate come rappresentazioni o immagini codificate, permettendo una corrispondenza uno-a-uno tra stimoli sensoriali e pattern memorizzati.&lt;br /&gt;
* &#039;&#039;&#039;Rete di interruttori&#039;&#039;&#039;: Propone che il sistema nervoso centrale funzioni come una complessa rete di interruttori, dove nuovi collegamenti si formano in risposta agli stimoli, enfatizzando l&#039;idea di apprendimento come formazione di nuovi percorsi neurali.&lt;br /&gt;
&lt;br /&gt;
==Il Modello del Perceptron==&lt;br /&gt;
Il Perceptron è presentato come un modello teorico per esplorare le &#039;&#039;&#039;proprietà fondamentali dei sistemi intelligenti&#039;&#039;&#039;, facendo analogie con il &#039;&#039;&#039;sistema nervoso biologico&#039;&#039;&#039; senza soffermarsi troppo sulle specificità di organismi particolari. Questo modello utilizza la &#039;&#039;&#039;teoria della probabilità&#039;&#039;&#039; anziché la logica simbolica, distinguendosi dai modelli cerebrali precedenti che si basavano su algoritmi specifici.&lt;br /&gt;
&lt;br /&gt;
===Funzionamento e Capacità di Apprendimento===&lt;br /&gt;
Il Perceptron può apprendere attraverso &#039;&#039;&#039;rinforzi&#039;&#039;&#039; e ha la capacità di &#039;&#039;&#039;riconoscere e generalizzare pattern&#039;&#039;&#039; a partire da &#039;&#039;&#039;input sensoriali&#039;&#039;&#039; come stimoli ambientali. Rosenblatt discute dettagliatamente la struttura e il funzionamento del Perceptron, inclusa la sua capacità di formare &#039;&#039;&#039;connessioni&#039;&#039;&#039; basate su &#039;&#039;&#039;esperienze passate&#039;&#039;&#039; e di adattarsi a nuovi stimoli attraverso processi di &#039;&#039;&#039;rinforzo positivo e negativo&#039;&#039;&#039;.&lt;br /&gt;
&lt;br /&gt;
===Diagramma Perceptron===&lt;br /&gt;
La foto mostra lo schema di un &#039;&#039;&#039;Perceptron&#039;&#039;&#039;, che è la forma più semplice di una &#039;&#039;&#039;Rete Neurale Artificiale&#039;&#039;&#039;, come definita dal suo inventore, &#039;&#039;&#039;Frank Rosenblatt&#039;&#039;&#039;. Di seguito come funziona il Perceptron:&lt;br /&gt;
* &#039;&#039;&#039;Inputs&#039;&#039;&#039;:&lt;br /&gt;
Gli input (&#039;&#039;x0, x1, ..., xN&#039;&#039;) sono i segnali in entrata al Perceptron. L&#039;input &#039;&#039;x0&#039;&#039; è solitamente l&#039;input di bias che aiuta a spostare il limite decisionale del Perceptron per migliorare l&#039;apprendimento.&lt;br /&gt;
* &#039;&#039;&#039;Pesi (Weights)&#039;&#039;&#039;:&lt;br /&gt;
Ogni input ha un peso associato (&#039;&#039;w1, w2, ..., wN&#039;&#039;) più un peso per il bias (&#039;&#039;b&#039;&#039;). Questi pesi sono parametri adattivi che il Perceptron impara durante la fase di training. Il peso &#039;&#039;b&#039;&#039; è il bias che può essere visto come il peso associato a &#039;&#039;x0&#039;&#039;.&lt;br /&gt;
* &#039;&#039;&#039;Funzione lineare&#039;&#039;&#039;:&lt;br /&gt;
La funzione lineare è la somma ponderata degli input. Ogni input è moltiplicato per il proprio peso e poi tutti i risultati sono sommati insieme per formare il valore intermedio &#039;&#039;z&#039;&#039;. La formula è &#039;&#039;z = x0b + x1w1 + x2w2 + ... + xNwN&#039;&#039;.&lt;br /&gt;
* &#039;&#039;&#039;[[Funzione di attivazione|Funzione di attivazione]]&#039;&#039;&#039;:&lt;br /&gt;
Il valore intermedio &#039;&#039;z&#039;&#039; viene passato attraverso una funzione di attivazione (indicata con la lettera &#039;&#039;f&#039;&#039;). Nelle versioni originali del Perceptron, questa era spesso una funzione a gradino, che trasforma l&#039;input in un output binario. Se &#039;&#039;z&#039;&#039; è maggiore di una certa soglia, l&#039;output &#039;&#039;y&#039;&#039; è 1, altrimenti è 0.&lt;br /&gt;
* &#039;&#039;&#039;Output&#039;&#039;&#039;:&lt;br /&gt;
L&#039;output &#039;&#039;y&#039;&#039; è il risultato del processo di attivazione e rappresenta la risposta del Perceptron agli input forniti. Questo può essere il risultato finale o può essere utilizzato come input per un altro nodo in una rete più grande.&lt;br /&gt;
&lt;br /&gt;
[[File:Perceptron.png|nessuno|miniatura|600x600px|Perceptron]]&lt;br /&gt;
&lt;br /&gt;
==Limitazioni e Potenzialità==&lt;br /&gt;
Sebbene il Perceptron mostri notevoli &#039;&#039;&#039;capacità di apprendimento e generalizzazione&#039;&#039;&#039;, Rosenblatt riconosce le sue &#039;&#039;&#039;limitazioni&#039;&#039;&#039;, in particolare la &#039;&#039;&#039;difficoltà nel gestire relazioni astratte&#039;&#039;&#039; o nel &#039;&#039;&#039;riconoscere pattern&#039;&#039;&#039; basati su &#039;&#039;&#039;relazioni spaziali&#039;&#039;&#039; o &#039;&#039;&#039;temporali complesse&#039;&#039;&#039;.&lt;br /&gt;
&lt;br /&gt;
Rosenblatt conclude che il Perceptron offre una base promettente per ulteriori ricerche sui sistemi cognitivi, sia biologici sia artificiali. Il suo lavoro evidenzia l&#039;importanza della &#039;&#039;&#039;modellazione computazionale e probabilistica&#039;&#039;&#039; nell&#039;elaborazione delle informazioni e pone le basi per &#039;&#039;&#039;futuri sviluppi nell&#039;intelligenza artificiale&#039;&#039;&#039; e nella &#039;&#039;&#039;comprensione dei meccanismi di apprendimento&#039;&#039;&#039; e &#039;&#039;&#039;memoria nel cervello&#039;&#039;&#039;.&lt;br /&gt;
&lt;br /&gt;
==Link==&lt;br /&gt;
[https://psycnet.apa.org/record/1959-09865-001 The perceptron: A probabilistic model for information storage and organization in the brain (1957)]: paper originale&lt;br /&gt;
&lt;br /&gt;
[[Category:architettura]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
__SHOWFACTBOX__&lt;/div&gt;</summary>
		<author><name>Ilaria Maserati</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Rete_Neurale_Artificiale_(ANN)&amp;diff=2212</id>
		<title>Rete Neurale Artificiale (ANN)</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Rete_Neurale_Artificiale_(ANN)&amp;diff=2212"/>
		<updated>2024-04-11T15:08:41Z</updated>

		<summary type="html">&lt;p&gt;Ilaria Maserati: /* Paper */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Nome: [[Nome::Rete Neurale Artificiale]]&lt;br /&gt;
&lt;br /&gt;
Sigla: [[Sigla::ANN]]&lt;br /&gt;
&lt;br /&gt;
Anno Di Creazione: [[AnnoDiCreazione::1957]]&lt;br /&gt;
&lt;br /&gt;
Pubblicazione: [[Pubblicazione::The perceptron: A probabilistic model for information storage and organization in the brain]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{#set: NomeInglese=Artificial Neural Network }}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Un software basato e strutturato sulla base di principi ispirati al funzionamento del cervello umano, che ha l&#039;obiettivo di creare macchine che possano &#039;&#039;&#039;imparare&#039;&#039;&#039; come gli esseri umani. In questo senso, le reti neurali sono un campo dell&#039;[[apprendimento automatico]].&lt;br /&gt;
&lt;br /&gt;
==Intro==&lt;br /&gt;
Il paper &#039;&#039;&amp;quot;The Perceptron: A Probabilistic Model for Information Storage and Organization in the Brain&amp;quot;&#039;&#039; di Frank Rosenblatt propone il Perceptron come modello teorico per &#039;&#039;&#039;l&#039;elaborazione delle informazioni nel cervello&#039;&#039;&#039;. Questo modello mira a spiegare come gli organismi superiori riconoscano pattern, generalizzino, ricordino e pensino attraverso un sistema che simula il &#039;&#039;&#039;funzionamento dei neuroni&#039;&#039;&#039;. Rosenblatt esplora due questioni centrali: come le informazioni vengono memorizzate e come influenzano il riconoscimento e il comportamento.&lt;br /&gt;
&lt;br /&gt;
==Memoria e Rappresentazione dell&#039;Informazione==&lt;br /&gt;
Il lavoro presenta due teorie sulla memorizzazione dell&#039;informazione sensoriale:&lt;br /&gt;
* &#039;&#039;&#039;Memoria codificata&#039;&#039;&#039;: Suggerisce che le informazioni vengano conservate come rappresentazioni o immagini codificate, permettendo una corrispondenza uno-a-uno tra stimoli sensoriali e pattern memorizzati.&lt;br /&gt;
* &#039;&#039;&#039;Rete di interruttori&#039;&#039;&#039;: Propone che il sistema nervoso centrale funzioni come una complessa rete di interruttori, dove nuovi collegamenti si formano in risposta agli stimoli, enfatizzando l&#039;idea di apprendimento come formazione di nuovi percorsi neurali.&lt;br /&gt;
&lt;br /&gt;
==Il Modello del Perceptron==&lt;br /&gt;
Il Perceptron è presentato come un modello teorico per esplorare le &#039;&#039;&#039;proprietà fondamentali dei sistemi intelligenti&#039;&#039;&#039;, facendo analogie con il &#039;&#039;&#039;sistema nervoso biologico&#039;&#039;&#039; senza soffermarsi troppo sulle specificità di organismi particolari. Questo modello utilizza la &#039;&#039;&#039;teoria della probabilità&#039;&#039;&#039; anziché la logica simbolica, distinguendosi dai modelli cerebrali precedenti che si basavano su algoritmi specifici.&lt;br /&gt;
&lt;br /&gt;
===Funzionamento e Capacità di Apprendimento===&lt;br /&gt;
Il Perceptron può apprendere attraverso &#039;&#039;&#039;rinforzi&#039;&#039;&#039; e ha la capacità di &#039;&#039;&#039;riconoscere e generalizzare pattern&#039;&#039;&#039; a partire da &#039;&#039;&#039;input sensoriali&#039;&#039;&#039; come stimoli ambientali. Rosenblatt discute dettagliatamente la struttura e il funzionamento del Perceptron, inclusa la sua capacità di formare &#039;&#039;&#039;connessioni&#039;&#039;&#039; basate su &#039;&#039;&#039;esperienze passate&#039;&#039;&#039; e di adattarsi a nuovi stimoli attraverso processi di &#039;&#039;&#039;rinforzo positivo e negativo&#039;&#039;&#039;.&lt;br /&gt;
&lt;br /&gt;
===Diagramma Perceptron===&lt;br /&gt;
La foto mostra lo schema di un &#039;&#039;&#039;Perceptron&#039;&#039;&#039;, che è la forma più semplice di una &#039;&#039;&#039;Rete Neurale Artificiale&#039;&#039;&#039;, come definita dal suo inventore, &#039;&#039;&#039;Frank Rosenblatt&#039;&#039;&#039;. Di seguito come funziona il Perceptron:&lt;br /&gt;
* &#039;&#039;&#039;Inputs&#039;&#039;&#039;:&lt;br /&gt;
Gli input (&#039;&#039;x0, x1, ..., xN&#039;&#039;) sono i segnali in entrata al Perceptron. L&#039;input &#039;&#039;x0&#039;&#039; è solitamente l&#039;input di bias che aiuta a spostare il limite decisionale del Perceptron per migliorare l&#039;apprendimento.&lt;br /&gt;
* &#039;&#039;&#039;Pesi (Weights)&#039;&#039;&#039;:&lt;br /&gt;
Ogni input ha un peso associato (&#039;&#039;w1, w2, ..., wN&#039;&#039;) più un peso per il bias (&#039;&#039;b&#039;&#039;). Questi pesi sono parametri adattivi che il Perceptron impara durante la fase di training. Il peso &#039;&#039;b&#039;&#039; è il bias che può essere visto come il peso associato a &#039;&#039;x0&#039;&#039;.&lt;br /&gt;
* &#039;&#039;&#039;Funzione lineare&#039;&#039;&#039;:&lt;br /&gt;
La funzione lineare è la somma ponderata degli input. Ogni input è moltiplicato per il proprio peso e poi tutti i risultati sono sommati insieme per formare il valore intermedio &#039;&#039;z&#039;&#039;. La formula è &#039;&#039;z = x0b + x1w1 + x2w2 + ... + xNwN&#039;&#039;.&lt;br /&gt;
* &#039;&#039;&#039;[[Funzione di attivazione|Funzione di attivazione]]&#039;&#039;&#039;:&lt;br /&gt;
Il valore intermedio &#039;&#039;z&#039;&#039; viene passato attraverso una funzione di attivazione (indicata con la lettera &#039;&#039;f&#039;&#039;). Nelle versioni originali del Perceptron, questa era spesso una funzione a gradino, che trasforma l&#039;input in un output binario. Se &#039;&#039;z&#039;&#039; è maggiore di una certa soglia, l&#039;output &#039;&#039;y&#039;&#039; è 1, altrimenti è 0.&lt;br /&gt;
* &#039;&#039;&#039;Output&#039;&#039;&#039;:&lt;br /&gt;
L&#039;output &#039;&#039;y&#039;&#039; è il risultato del processo di attivazione e rappresenta la risposta del Perceptron agli input forniti. Questo può essere il risultato finale o può essere utilizzato come input per un altro nodo in una rete più grande.&lt;br /&gt;
&lt;br /&gt;
[[File:Perceptron.png|nessuno|miniatura|600x600px|Perceptron]]&lt;br /&gt;
&lt;br /&gt;
==Limitazioni e Potenzialità==&lt;br /&gt;
Sebbene il Perceptron mostri notevoli &#039;&#039;&#039;capacità di apprendimento e generalizzazione&#039;&#039;&#039;, Rosenblatt riconosce le sue &#039;&#039;&#039;limitazioni&#039;&#039;&#039;, in particolare la &#039;&#039;&#039;difficoltà nel gestire relazioni astratte&#039;&#039;&#039; o nel &#039;&#039;&#039;riconoscere pattern&#039;&#039;&#039; basati su &#039;&#039;&#039;relazioni spaziali&#039;&#039;&#039; o &#039;&#039;&#039;temporali complesse&#039;&#039;&#039;.&lt;br /&gt;
&lt;br /&gt;
Rosenblatt conclude che il Perceptron offre una base promettente per ulteriori ricerche sui sistemi cognitivi, sia biologici sia artificiali. Il suo lavoro evidenzia l&#039;importanza della &#039;&#039;&#039;modellazione computazionale e probabilistica&#039;&#039;&#039; nell&#039;elaborazione delle informazioni e pone le basi per &#039;&#039;&#039;futuri sviluppi nell&#039;intelligenza artificiale&#039;&#039;&#039; e nella &#039;&#039;&#039;comprensione dei meccanismi di apprendimento&#039;&#039;&#039; e &#039;&#039;&#039;memoria nel cervello&#039;&#039;&#039;.&lt;br /&gt;
&lt;br /&gt;
==Link==&lt;br /&gt;
===Paper===&lt;br /&gt;
[https://psycnet.apa.org/record/1959-09865-001 The perceptron: A probabilistic model for information storage and organization in the brain (1957)]: paper originale&lt;br /&gt;
&lt;br /&gt;
[[Category:architettura]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
__SHOWFACTBOX__&lt;/div&gt;</summary>
		<author><name>Ilaria Maserati</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Rete_Neurale_Artificiale_(ANN)&amp;diff=2211</id>
		<title>Rete Neurale Artificiale (ANN)</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Rete_Neurale_Artificiale_(ANN)&amp;diff=2211"/>
		<updated>2024-04-11T15:08:12Z</updated>

		<summary type="html">&lt;p&gt;Ilaria Maserati: /* Memoria e Rappresentazione dell&amp;#039;Informazione */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Nome: [[Nome::Rete Neurale Artificiale]]&lt;br /&gt;
&lt;br /&gt;
Sigla: [[Sigla::ANN]]&lt;br /&gt;
&lt;br /&gt;
Anno Di Creazione: [[AnnoDiCreazione::1957]]&lt;br /&gt;
&lt;br /&gt;
Pubblicazione: [[Pubblicazione::The perceptron: A probabilistic model for information storage and organization in the brain]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{#set: NomeInglese=Artificial Neural Network }}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Un software basato e strutturato sulla base di principi ispirati al funzionamento del cervello umano, che ha l&#039;obiettivo di creare macchine che possano &#039;&#039;&#039;imparare&#039;&#039;&#039; come gli esseri umani. In questo senso, le reti neurali sono un campo dell&#039;[[apprendimento automatico]].&lt;br /&gt;
&lt;br /&gt;
==Intro==&lt;br /&gt;
Il paper &#039;&#039;&amp;quot;The Perceptron: A Probabilistic Model for Information Storage and Organization in the Brain&amp;quot;&#039;&#039; di Frank Rosenblatt propone il Perceptron come modello teorico per &#039;&#039;&#039;l&#039;elaborazione delle informazioni nel cervello&#039;&#039;&#039;. Questo modello mira a spiegare come gli organismi superiori riconoscano pattern, generalizzino, ricordino e pensino attraverso un sistema che simula il &#039;&#039;&#039;funzionamento dei neuroni&#039;&#039;&#039;. Rosenblatt esplora due questioni centrali: come le informazioni vengono memorizzate e come influenzano il riconoscimento e il comportamento.&lt;br /&gt;
&lt;br /&gt;
==Memoria e Rappresentazione dell&#039;Informazione==&lt;br /&gt;
Il lavoro presenta due teorie sulla memorizzazione dell&#039;informazione sensoriale:&lt;br /&gt;
* &#039;&#039;&#039;Memoria codificata&#039;&#039;&#039;: Suggerisce che le informazioni vengano conservate come rappresentazioni o immagini codificate, permettendo una corrispondenza uno-a-uno tra stimoli sensoriali e pattern memorizzati.&lt;br /&gt;
* &#039;&#039;&#039;Rete di interruttori&#039;&#039;&#039;: Propone che il sistema nervoso centrale funzioni come una complessa rete di interruttori, dove nuovi collegamenti si formano in risposta agli stimoli, enfatizzando l&#039;idea di apprendimento come formazione di nuovi percorsi neurali.&lt;br /&gt;
&lt;br /&gt;
==Il Modello del Perceptron==&lt;br /&gt;
Il Perceptron è presentato come un modello teorico per esplorare le &#039;&#039;&#039;proprietà fondamentali dei sistemi intelligenti&#039;&#039;&#039;, facendo analogie con il &#039;&#039;&#039;sistema nervoso biologico&#039;&#039;&#039; senza soffermarsi troppo sulle specificità di organismi particolari. Questo modello utilizza la &#039;&#039;&#039;teoria della probabilità&#039;&#039;&#039; anziché la logica simbolica, distinguendosi dai modelli cerebrali precedenti che si basavano su algoritmi specifici.&lt;br /&gt;
&lt;br /&gt;
===Funzionamento e Capacità di Apprendimento===&lt;br /&gt;
Il Perceptron può apprendere attraverso &#039;&#039;&#039;rinforzi&#039;&#039;&#039; e ha la capacità di &#039;&#039;&#039;riconoscere e generalizzare pattern&#039;&#039;&#039; a partire da &#039;&#039;&#039;input sensoriali&#039;&#039;&#039; come stimoli ambientali. Rosenblatt discute dettagliatamente la struttura e il funzionamento del Perceptron, inclusa la sua capacità di formare &#039;&#039;&#039;connessioni&#039;&#039;&#039; basate su &#039;&#039;&#039;esperienze passate&#039;&#039;&#039; e di adattarsi a nuovi stimoli attraverso processi di &#039;&#039;&#039;rinforzo positivo e negativo&#039;&#039;&#039;.&lt;br /&gt;
&lt;br /&gt;
===Diagramma Perceptron===&lt;br /&gt;
La foto mostra lo schema di un &#039;&#039;&#039;Perceptron&#039;&#039;&#039;, che è la forma più semplice di una &#039;&#039;&#039;Rete Neurale Artificiale&#039;&#039;&#039;, come definita dal suo inventore, &#039;&#039;&#039;Frank Rosenblatt&#039;&#039;&#039;. Di seguito come funziona il Perceptron:&lt;br /&gt;
* &#039;&#039;&#039;Inputs&#039;&#039;&#039;:&lt;br /&gt;
Gli input (&#039;&#039;x0, x1, ..., xN&#039;&#039;) sono i segnali in entrata al Perceptron. L&#039;input &#039;&#039;x0&#039;&#039; è solitamente l&#039;input di bias che aiuta a spostare il limite decisionale del Perceptron per migliorare l&#039;apprendimento.&lt;br /&gt;
* &#039;&#039;&#039;Pesi (Weights)&#039;&#039;&#039;:&lt;br /&gt;
Ogni input ha un peso associato (&#039;&#039;w1, w2, ..., wN&#039;&#039;) più un peso per il bias (&#039;&#039;b&#039;&#039;). Questi pesi sono parametri adattivi che il Perceptron impara durante la fase di training. Il peso &#039;&#039;b&#039;&#039; è il bias che può essere visto come il peso associato a &#039;&#039;x0&#039;&#039;.&lt;br /&gt;
* &#039;&#039;&#039;Funzione lineare&#039;&#039;&#039;:&lt;br /&gt;
La funzione lineare è la somma ponderata degli input. Ogni input è moltiplicato per il proprio peso e poi tutti i risultati sono sommati insieme per formare il valore intermedio &#039;&#039;z&#039;&#039;. La formula è &#039;&#039;z = x0b + x1w1 + x2w2 + ... + xNwN&#039;&#039;.&lt;br /&gt;
* &#039;&#039;&#039;[[Funzione di attivazione|Funzione di attivazione]]&#039;&#039;&#039;:&lt;br /&gt;
Il valore intermedio &#039;&#039;z&#039;&#039; viene passato attraverso una funzione di attivazione (indicata con la lettera &#039;&#039;f&#039;&#039;). Nelle versioni originali del Perceptron, questa era spesso una funzione a gradino, che trasforma l&#039;input in un output binario. Se &#039;&#039;z&#039;&#039; è maggiore di una certa soglia, l&#039;output &#039;&#039;y&#039;&#039; è 1, altrimenti è 0.&lt;br /&gt;
* &#039;&#039;&#039;Output&#039;&#039;&#039;:&lt;br /&gt;
L&#039;output &#039;&#039;y&#039;&#039; è il risultato del processo di attivazione e rappresenta la risposta del Perceptron agli input forniti. Questo può essere il risultato finale o può essere utilizzato come input per un altro nodo in una rete più grande.&lt;br /&gt;
&lt;br /&gt;
[[File:Perceptron.png|nessuno|miniatura|600x600px|Perceptron]]&lt;br /&gt;
&lt;br /&gt;
==Limitazioni e Potenzialità==&lt;br /&gt;
Sebbene il Perceptron mostri notevoli &#039;&#039;&#039;capacità di apprendimento e generalizzazione&#039;&#039;&#039;, Rosenblatt riconosce le sue &#039;&#039;&#039;limitazioni&#039;&#039;&#039;, in particolare la &#039;&#039;&#039;difficoltà nel gestire relazioni astratte&#039;&#039;&#039; o nel &#039;&#039;&#039;riconoscere pattern&#039;&#039;&#039; basati su &#039;&#039;&#039;relazioni spaziali&#039;&#039;&#039; o &#039;&#039;&#039;temporali complesse&#039;&#039;&#039;.&lt;br /&gt;
&lt;br /&gt;
Rosenblatt conclude che il Perceptron offre una base promettente per ulteriori ricerche sui sistemi cognitivi, sia biologici sia artificiali. Il suo lavoro evidenzia l&#039;importanza della &#039;&#039;&#039;modellazione computazionale e probabilistica&#039;&#039;&#039; nell&#039;elaborazione delle informazioni e pone le basi per &#039;&#039;&#039;futuri sviluppi nell&#039;intelligenza artificiale&#039;&#039;&#039; e nella &#039;&#039;&#039;comprensione dei meccanismi di apprendimento&#039;&#039;&#039; e &#039;&#039;&#039;memoria nel cervello&#039;&#039;&#039;.&lt;br /&gt;
&lt;br /&gt;
==Link==&lt;br /&gt;
===Paper===&lt;br /&gt;
[https://psycnet.apa.org/record/1959-09865-001 The perceptron: A probabilistic model for information storage and organization in the brain (1958)]: paper originale&lt;br /&gt;
&lt;br /&gt;
[[Category:architettura]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
__SHOWFACTBOX__&lt;/div&gt;</summary>
		<author><name>Ilaria Maserati</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Rete_Neurale_Artificiale_(ANN)&amp;diff=2209</id>
		<title>Rete Neurale Artificiale (ANN)</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Rete_Neurale_Artificiale_(ANN)&amp;diff=2209"/>
		<updated>2024-04-11T15:06:47Z</updated>

		<summary type="html">&lt;p&gt;Ilaria Maserati: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Nome: [[Nome::Rete Neurale Artificiale]]&lt;br /&gt;
&lt;br /&gt;
Sigla: [[Sigla::ANN]]&lt;br /&gt;
&lt;br /&gt;
Anno Di Creazione: [[AnnoDiCreazione::1957]]&lt;br /&gt;
&lt;br /&gt;
Pubblicazione: [[Pubblicazione::The perceptron: A probabilistic model for information storage and organization in the brain]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{#set: NomeInglese=Artificial Neural Network }}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Un software basato e strutturato sulla base di principi ispirati al funzionamento del cervello umano, che ha l&#039;obiettivo di creare macchine che possano &#039;&#039;&#039;imparare&#039;&#039;&#039; come gli esseri umani. In questo senso, le reti neurali sono un campo dell&#039;[[apprendimento automatico]].&lt;br /&gt;
&lt;br /&gt;
==Intro==&lt;br /&gt;
Il paper &#039;&#039;&amp;quot;The Perceptron: A Probabilistic Model for Information Storage and Organization in the Brain&amp;quot;&#039;&#039; di Frank Rosenblatt propone il Perceptron come modello teorico per &#039;&#039;&#039;l&#039;elaborazione delle informazioni nel cervello&#039;&#039;&#039;. Questo modello mira a spiegare come gli organismi superiori riconoscano pattern, generalizzino, ricordino e pensino attraverso un sistema che simula il &#039;&#039;&#039;funzionamento dei neuroni&#039;&#039;&#039;. Rosenblatt esplora due questioni centrali: come le informazioni vengono memorizzate e come influenzano il riconoscimento e il comportamento.&lt;br /&gt;
&lt;br /&gt;
==Memoria e Rappresentazione dell&#039;Informazione==&lt;br /&gt;
Il lavoro presenta due teorie sulla memorizzazione dell&#039;informazione sensoriale:&lt;br /&gt;
* &#039;&#039;&#039;Memoria Codificata&#039;&#039;&#039;: Suggerisce che le informazioni vengano conservate come rappresentazioni o immagini codificate, permettendo una corrispondenza uno-a-uno tra stimoli sensoriali e pattern memorizzati.&lt;br /&gt;
* &#039;&#039;&#039;Rete di Interruttori&#039;&#039;&#039;: Propone che il sistema nervoso centrale funzioni come una complessa rete di interruttori, dove nuovi collegamenti si formano in risposta agli stimoli, enfatizzando l&#039;idea di apprendimento come formazione di nuovi percorsi neurali.&lt;br /&gt;
&lt;br /&gt;
==Il Modello del Perceptron==&lt;br /&gt;
Il Perceptron è presentato come un modello teorico per esplorare le &#039;&#039;&#039;proprietà fondamentali dei sistemi intelligenti&#039;&#039;&#039;, facendo analogie con il &#039;&#039;&#039;sistema nervoso biologico&#039;&#039;&#039; senza soffermarsi troppo sulle specificità di organismi particolari. Questo modello utilizza la &#039;&#039;&#039;teoria della probabilità&#039;&#039;&#039; anziché la logica simbolica, distinguendosi dai modelli cerebrali precedenti che si basavano su algoritmi specifici.&lt;br /&gt;
&lt;br /&gt;
===Funzionamento e Capacità di Apprendimento===&lt;br /&gt;
Il Perceptron può apprendere attraverso &#039;&#039;&#039;rinforzi&#039;&#039;&#039; e ha la capacità di &#039;&#039;&#039;riconoscere e generalizzare pattern&#039;&#039;&#039; a partire da &#039;&#039;&#039;input sensoriali&#039;&#039;&#039; come stimoli ambientali. Rosenblatt discute dettagliatamente la struttura e il funzionamento del Perceptron, inclusa la sua capacità di formare &#039;&#039;&#039;connessioni&#039;&#039;&#039; basate su &#039;&#039;&#039;esperienze passate&#039;&#039;&#039; e di adattarsi a nuovi stimoli attraverso processi di &#039;&#039;&#039;rinforzo positivo e negativo&#039;&#039;&#039;.&lt;br /&gt;
&lt;br /&gt;
===Diagramma Perceptron===&lt;br /&gt;
La foto mostra lo schema di un &#039;&#039;&#039;Perceptron&#039;&#039;&#039;, che è la forma più semplice di una &#039;&#039;&#039;Rete Neurale Artificiale&#039;&#039;&#039;, come definita dal suo inventore, &#039;&#039;&#039;Frank Rosenblatt&#039;&#039;&#039;. Di seguito come funziona il Perceptron:&lt;br /&gt;
* &#039;&#039;&#039;Inputs&#039;&#039;&#039;:&lt;br /&gt;
Gli input (&#039;&#039;x0, x1, ..., xN&#039;&#039;) sono i segnali in entrata al Perceptron. L&#039;input &#039;&#039;x0&#039;&#039; è solitamente l&#039;input di bias che aiuta a spostare il limite decisionale del Perceptron per migliorare l&#039;apprendimento.&lt;br /&gt;
* &#039;&#039;&#039;Pesi (Weights)&#039;&#039;&#039;:&lt;br /&gt;
Ogni input ha un peso associato (&#039;&#039;w1, w2, ..., wN&#039;&#039;) più un peso per il bias (&#039;&#039;b&#039;&#039;). Questi pesi sono parametri adattivi che il Perceptron impara durante la fase di training. Il peso &#039;&#039;b&#039;&#039; è il bias che può essere visto come il peso associato a &#039;&#039;x0&#039;&#039;.&lt;br /&gt;
* &#039;&#039;&#039;Funzione lineare&#039;&#039;&#039;:&lt;br /&gt;
La funzione lineare è la somma ponderata degli input. Ogni input è moltiplicato per il proprio peso e poi tutti i risultati sono sommati insieme per formare il valore intermedio &#039;&#039;z&#039;&#039;. La formula è &#039;&#039;z = x0b + x1w1 + x2w2 + ... + xNwN&#039;&#039;.&lt;br /&gt;
* &#039;&#039;&#039;[[Funzione di attivazione|Funzione di attivazione]]&#039;&#039;&#039;:&lt;br /&gt;
Il valore intermedio &#039;&#039;z&#039;&#039; viene passato attraverso una funzione di attivazione (indicata con la lettera &#039;&#039;f&#039;&#039;). Nelle versioni originali del Perceptron, questa era spesso una funzione a gradino, che trasforma l&#039;input in un output binario. Se &#039;&#039;z&#039;&#039; è maggiore di una certa soglia, l&#039;output &#039;&#039;y&#039;&#039; è 1, altrimenti è 0.&lt;br /&gt;
* &#039;&#039;&#039;Output&#039;&#039;&#039;:&lt;br /&gt;
L&#039;output &#039;&#039;y&#039;&#039; è il risultato del processo di attivazione e rappresenta la risposta del Perceptron agli input forniti. Questo può essere il risultato finale o può essere utilizzato come input per un altro nodo in una rete più grande.&lt;br /&gt;
&lt;br /&gt;
[[File:Perceptron.png|nessuno|miniatura|600x600px|Perceptron]]&lt;br /&gt;
&lt;br /&gt;
==Limitazioni e Potenzialità==&lt;br /&gt;
Sebbene il Perceptron mostri notevoli &#039;&#039;&#039;capacità di apprendimento e generalizzazione&#039;&#039;&#039;, Rosenblatt riconosce le sue &#039;&#039;&#039;limitazioni&#039;&#039;&#039;, in particolare la &#039;&#039;&#039;difficoltà nel gestire relazioni astratte&#039;&#039;&#039; o nel &#039;&#039;&#039;riconoscere pattern&#039;&#039;&#039; basati su &#039;&#039;&#039;relazioni spaziali&#039;&#039;&#039; o &#039;&#039;&#039;temporali complesse&#039;&#039;&#039;.&lt;br /&gt;
&lt;br /&gt;
Rosenblatt conclude che il Perceptron offre una base promettente per ulteriori ricerche sui sistemi cognitivi, sia biologici sia artificiali. Il suo lavoro evidenzia l&#039;importanza della &#039;&#039;&#039;modellazione computazionale e probabilistica&#039;&#039;&#039; nell&#039;elaborazione delle informazioni e pone le basi per &#039;&#039;&#039;futuri sviluppi nell&#039;intelligenza artificiale&#039;&#039;&#039; e nella &#039;&#039;&#039;comprensione dei meccanismi di apprendimento&#039;&#039;&#039; e &#039;&#039;&#039;memoria nel cervello&#039;&#039;&#039;.&lt;br /&gt;
&lt;br /&gt;
==Link==&lt;br /&gt;
===Paper===&lt;br /&gt;
[https://psycnet.apa.org/record/1959-09865-001 The perceptron: A probabilistic model for information storage and organization in the brain (1958)]: paper originale&lt;br /&gt;
&lt;br /&gt;
[[Category:architettura]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
__SHOWFACTBOX__&lt;/div&gt;</summary>
		<author><name>Ilaria Maserati</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Rete_Neurale_Artificiale_(ANN)&amp;diff=2208</id>
		<title>Rete Neurale Artificiale (ANN)</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Rete_Neurale_Artificiale_(ANN)&amp;diff=2208"/>
		<updated>2024-04-11T15:06:01Z</updated>

		<summary type="html">&lt;p&gt;Ilaria Maserati: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Nome: [[Nome::Rete Neurale Artificiale]]&lt;br /&gt;
&lt;br /&gt;
Sigla: [[Sigla::ANN]]&lt;br /&gt;
&lt;br /&gt;
Anno Di Creazione: [[AnnoDiCreazione::1957]]&lt;br /&gt;
&lt;br /&gt;
Pubblicazione: [[Pubblicazione::The perceptron: A probabilistic model for information storage and organization in the brain]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{#set: NomeInglese=Artificial Neural Network }}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Un software basato e strutturato sulla base di principi ispirati al funzionamento del cervello umano, che ha l&#039;obiettivo di creare macchine che possano &#039;&#039;&#039;imparare&#039;&#039;&#039; come gli esseri umani. In questo senso, le reti neurali sono un campo dell&#039;[[apprendimento automatico]].&lt;br /&gt;
&lt;br /&gt;
==Intro==&lt;br /&gt;
Il paper &#039;&#039;&amp;quot;The Perceptron: A Probabilistic Model for Information Storage and Organization in the Brain&amp;quot;&#039;&#039; di Frank Rosenblatt propone il Perceptron come modello teorico per &#039;&#039;&#039;l&#039;elaborazione delle informazioni nel cervello&#039;&#039;&#039;. Questo modello mira a spiegare come gli organismi superiori riconoscano pattern, generalizzino, ricordino e pensino attraverso un sistema che simula il &#039;&#039;&#039;funzionamento dei neuroni&#039;&#039;&#039;. Rosenblatt esplora due questioni centrali: come le informazioni vengono memorizzate e come influenzano il riconoscimento e il comportamento.&lt;br /&gt;
&lt;br /&gt;
==Memoria e Rappresentazione dell&#039;Informazione==&lt;br /&gt;
Il lavoro presenta due teorie sulla memorizzazione dell&#039;informazione sensoriale:&lt;br /&gt;
* &#039;&#039;&#039;Memoria Codificata&#039;&#039;&#039;: Suggerisce che le informazioni vengano conservate come rappresentazioni o immagini codificate, permettendo una corrispondenza uno-a-uno tra stimoli sensoriali e pattern memorizzati.&lt;br /&gt;
* &#039;&#039;&#039;Rete di Interruttori&#039;&#039;&#039;: Propone che il sistema nervoso centrale funzioni come una complessa rete di interruttori, dove nuovi collegamenti si formano in risposta agli stimoli, enfatizzando l&#039;idea di apprendimento come formazione di nuovi percorsi neurali.&lt;br /&gt;
&lt;br /&gt;
==Il Modello del Perceptron==&lt;br /&gt;
Il Perceptron è presentato come un modello teorico per esplorare le &#039;&#039;&#039;proprietà fondamentali dei sistemi intelligenti&#039;&#039;&#039;, facendo analogie con il &#039;&#039;&#039;sistema nervoso biologico&#039;&#039;&#039; senza soffermarsi troppo sulle specificità di organismi particolari. Questo modello utilizza la &#039;&#039;&#039;teoria della probabilità&#039;&#039;&#039; anziché la logica simbolica, distinguendosi dai modelli cerebrali precedenti che si basavano su algoritmi specifici.&lt;br /&gt;
&lt;br /&gt;
==Funzionamento e Capacità di Apprendimento==&lt;br /&gt;
Il Perceptron può apprendere attraverso &#039;&#039;&#039;rinforzi&#039;&#039;&#039; e ha la capacità di &#039;&#039;&#039;riconoscere e generalizzare pattern&#039;&#039;&#039; a partire da &#039;&#039;&#039;input sensoriali&#039;&#039;&#039; come stimoli ambientali. Rosenblatt discute dettagliatamente la struttura e il funzionamento del Perceptron, inclusa la sua capacità di formare &#039;&#039;&#039;connessioni&#039;&#039;&#039; basate su &#039;&#039;&#039;esperienze passate&#039;&#039;&#039; e di adattarsi a nuovi stimoli attraverso processi di &#039;&#039;&#039;rinforzo positivo e negativo&#039;&#039;&#039;.&lt;br /&gt;
&lt;br /&gt;
==Diagramma Perceptron==&lt;br /&gt;
La foto mostra lo schema di un &#039;&#039;&#039;Perceptron&#039;&#039;&#039;, che è la forma più semplice di una &#039;&#039;&#039;Rete Neurale Artificiale&#039;&#039;&#039;, come definita dal suo inventore, &#039;&#039;&#039;Frank Rosenblatt&#039;&#039;&#039;. Di seguito come funziona il Perceptron:&lt;br /&gt;
* &#039;&#039;&#039;Inputs&#039;&#039;&#039;:&lt;br /&gt;
Gli input (&#039;&#039;x0, x1, ..., xN&#039;&#039;) sono i segnali in entrata al Perceptron. L&#039;input &#039;&#039;x0&#039;&#039; è solitamente l&#039;input di bias che aiuta a spostare il limite decisionale del Perceptron per migliorare l&#039;apprendimento.&lt;br /&gt;
* &#039;&#039;&#039;Pesi (Weights)&#039;&#039;&#039;:&lt;br /&gt;
Ogni input ha un peso associato (&#039;&#039;w1, w2, ..., wN&#039;&#039;) più un peso per il bias (&#039;&#039;b&#039;&#039;). Questi pesi sono parametri adattivi che il Perceptron impara durante la fase di training. Il peso &#039;&#039;b&#039;&#039; è il bias che può essere visto come il peso associato a &#039;&#039;x0&#039;&#039;.&lt;br /&gt;
* &#039;&#039;&#039;Funzione lineare&#039;&#039;&#039;:&lt;br /&gt;
La funzione lineare è la somma ponderata degli input. Ogni input è moltiplicato per il proprio peso e poi tutti i risultati sono sommati insieme per formare il valore intermedio &#039;&#039;z&#039;&#039;. La formula è &#039;&#039;z = x0b + x1w1 + x2w2 + ... + xNwN&#039;&#039;.&lt;br /&gt;
* &#039;&#039;&#039;[[Funzione di attivazione|Funzione di attivazione]]&#039;&#039;&#039;:&lt;br /&gt;
Il valore intermedio &#039;&#039;z&#039;&#039; viene passato attraverso una funzione di attivazione (indicata con la lettera &#039;&#039;f&#039;&#039;). Nelle versioni originali del Perceptron, questa era spesso una funzione a gradino, che trasforma l&#039;input in un output binario. Se &#039;&#039;z&#039;&#039; è maggiore di una certa soglia, l&#039;output &#039;&#039;y&#039;&#039; è 1, altrimenti è 0.&lt;br /&gt;
* &#039;&#039;&#039;Output&#039;&#039;&#039;:&lt;br /&gt;
L&#039;output &#039;&#039;y&#039;&#039; è il risultato del processo di attivazione e rappresenta la risposta del Perceptron agli input forniti. Questo può essere il risultato finale o può essere utilizzato come input per un altro nodo in una rete più grande.&lt;br /&gt;
&lt;br /&gt;
[[File:Perceptron.png|nessuno|miniatura|600x600px|Perceptron]]&lt;br /&gt;
&lt;br /&gt;
==Limitazioni e Potenzialità==&lt;br /&gt;
Sebbene il Perceptron mostri notevoli &#039;&#039;&#039;capacità di apprendimento e generalizzazione&#039;&#039;&#039;, Rosenblatt riconosce le sue &#039;&#039;&#039;limitazioni&#039;&#039;&#039;, in particolare la &#039;&#039;&#039;difficoltà nel gestire relazioni astratte&#039;&#039;&#039; o nel &#039;&#039;&#039;riconoscere pattern&#039;&#039;&#039; basati su &#039;&#039;&#039;relazioni spaziali&#039;&#039;&#039; o &#039;&#039;&#039;temporali complesse&#039;&#039;&#039;.&lt;br /&gt;
&lt;br /&gt;
Rosenblatt conclude che il Perceptron offre una base promettente per ulteriori ricerche sui sistemi cognitivi, sia biologici sia artificiali. Il suo lavoro evidenzia l&#039;importanza della &#039;&#039;&#039;modellazione computazionale e probabilistica&#039;&#039;&#039; nell&#039;elaborazione delle informazioni e pone le basi per &#039;&#039;&#039;futuri sviluppi nell&#039;intelligenza artificiale&#039;&#039;&#039; e nella &#039;&#039;&#039;comprensione dei meccanismi di apprendimento&#039;&#039;&#039; e &#039;&#039;&#039;memoria nel cervello&#039;&#039;&#039;.&lt;br /&gt;
&lt;br /&gt;
==Link==&lt;br /&gt;
===Paper===&lt;br /&gt;
[https://psycnet.apa.org/record/1959-09865-001 The perceptron: A probabilistic model for information storage and organization in the brain (1958)]: paper originale&lt;br /&gt;
&lt;br /&gt;
[[Category:architettura]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
__SHOWFACTBOX__&lt;/div&gt;</summary>
		<author><name>Ilaria Maserati</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Rete_Neurale_Artificiale_(ANN)&amp;diff=2205</id>
		<title>Rete Neurale Artificiale (ANN)</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Rete_Neurale_Artificiale_(ANN)&amp;diff=2205"/>
		<updated>2024-04-11T15:03:40Z</updated>

		<summary type="html">&lt;p&gt;Ilaria Maserati: /* Funzionamento e capacità di Apprendimento */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Nome: [[Nome::Rete Neurale Artificiale]]&lt;br /&gt;
&lt;br /&gt;
Sigla: [[Sigla::ANN]]&lt;br /&gt;
&lt;br /&gt;
Anno Di Creazione: [[AnnoDiCreazione::1957]]&lt;br /&gt;
&lt;br /&gt;
Pubblicazione: [[Pubblicazione::The perceptron: A probabilistic model for information storage and organization in the brain]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{#set: NomeInglese=Artificial Neural Network }}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Un software basato e strutturato sulla base di principi ispirati al funzionamento del cervello umano, che ha l&#039;obiettivo di creare macchine che possano &#039;&#039;&#039;imparare&#039;&#039;&#039; come gli esseri umani. In questo senso, le reti neurali sono un campo dell&#039;[[apprendimento automatico]].&lt;br /&gt;
&lt;br /&gt;
==Intro==&lt;br /&gt;
Il paper &#039;&#039;&amp;quot;The Perceptron: A Probabilistic Model for Information Storage and Organization in the Brain&amp;quot;&#039;&#039; di Frank Rosenblatt propone il perceptron come modello teorico per &#039;&#039;&#039;l&#039;elaborazione delle informazioni nel cervello&#039;&#039;&#039;. Questo modello mira a spiegare come gli organismi superiori riconoscano pattern, generalizzino, ricordino e pensino attraverso un sistema che simula il &#039;&#039;&#039;funzionamento dei neuroni&#039;&#039;&#039;. Rosenblatt esplora due questioni centrali: come le informazioni vengono memorizzate e come influenzano il riconoscimento e il comportamento.&lt;br /&gt;
&lt;br /&gt;
==Memoria e Rappresentazione dell&#039;Informazione==&lt;br /&gt;
Il lavoro presenta due teorie sulla memorizzazione dell&#039;informazione sensoriale:&lt;br /&gt;
* &#039;&#039;&#039;Memoria Codificata&#039;&#039;&#039;: Suggerisce che le informazioni vengano conservate come rappresentazioni o immagini codificate, permettendo una corrispondenza uno-a-uno tra stimoli sensoriali e pattern memorizzati.&lt;br /&gt;
* &#039;&#039;&#039;Rete di Interruttori&#039;&#039;&#039;: Propone che il sistema nervoso centrale funzioni come una complessa rete di interruttori, dove nuovi collegamenti si formano in risposta agli stimoli, enfatizzando l&#039;idea di apprendimento come formazione di nuovi percorsi neurali.&lt;br /&gt;
&lt;br /&gt;
==Il Modello del Perceptron==&lt;br /&gt;
Il perceptron è presentato come un modello teorico per esplorare le &#039;&#039;&#039;proprietà fondamentali dei sistemi intelligenti&#039;&#039;&#039;, facendo analogie con il &#039;&#039;&#039;sistema nervoso biologico&#039;&#039;&#039; senza soffermarsi troppo sulle specificità di organismi particolari. Questo modello utilizza la &#039;&#039;&#039;teoria della probabilità&#039;&#039;&#039; anziché la logica simbolica, distinguendosi dai modelli cerebrali precedenti che si basavano su algoritmi specifici.&lt;br /&gt;
&lt;br /&gt;
==Funzionamento e Capacità di Apprendimento==&lt;br /&gt;
Il perceptron può apprendere attraverso &#039;&#039;&#039;rinforzi&#039;&#039;&#039; e ha la capacità di &#039;&#039;&#039;riconoscere e generalizzare pattern&#039;&#039;&#039; a partire da &#039;&#039;&#039;input sensoriali&#039;&#039;&#039; come stimoli ambientali. Rosenblatt discute dettagliatamente la struttura e il funzionamento del perceptron, inclusa la sua capacità di formare &#039;&#039;&#039;connessioni&#039;&#039;&#039; basate su &#039;&#039;&#039;esperienze passate&#039;&#039;&#039; e di adattarsi a nuovi stimoli attraverso processi di &#039;&#039;&#039;rinforzo positivo e negativo&#039;&#039;&#039;.&lt;br /&gt;
&lt;br /&gt;
==Diagramma Perceptron==&lt;br /&gt;
La foto mostra lo schema di un &#039;&#039;&#039;Perceptron&#039;&#039;&#039;, che è la forma più semplice di una &#039;&#039;&#039;Rete Neurale Artificiale&#039;&#039;&#039;, come definita dal suo inventore, &#039;&#039;&#039;Frank Rosenblatt&#039;&#039;&#039;. Di seguito come funziona il perceptron:&lt;br /&gt;
* &#039;&#039;&#039;Inputs&#039;&#039;&#039;:&lt;br /&gt;
Gli input (&#039;&#039;x0, x1, ..., xN&#039;&#039;) sono i segnali in entrata al perceptron. L&#039;input &#039;&#039;x0&#039;&#039; è solitamente l&#039;input di bias che aiuta a spostare il limite decisionale del perceptron per migliorare l&#039;apprendimento.&lt;br /&gt;
* &#039;&#039;&#039;Pesi (Weights)&#039;&#039;&#039;:&lt;br /&gt;
Ogni input ha un peso associato (&#039;&#039;w1, w2, ..., wN&#039;&#039;) più un peso per il bias (&#039;&#039;b&#039;&#039;). Questi pesi sono parametri adattivi che il perceptron impara durante la fase di training. Il peso &#039;&#039;b&#039;&#039; è il bias che può essere visto come il peso associato a &#039;&#039;x0&#039;&#039;.&lt;br /&gt;
* &#039;&#039;&#039;Funzione lineare&#039;&#039;&#039;:&lt;br /&gt;
La funzione lineare è la somma ponderata degli input. Ogni input è moltiplicato per il proprio peso e poi tutti i risultati sono sommati insieme per formare il valore intermedio &#039;&#039;z&#039;&#039;. La formula è &#039;&#039;z = x0b + x1w1 + x2w2 + ... + xNwN&#039;&#039;.&lt;br /&gt;
* &#039;&#039;&#039;[[Funzione di attivazione|Funzione di attivazione]]&#039;&#039;&#039;:&lt;br /&gt;
Il valore intermedio &#039;&#039;z&#039;&#039; viene passato attraverso una funzione di attivazione (indicata con la lettera &#039;&#039;f&#039;&#039;). Nelle versioni originali del perceptron, questa era spesso una funzione a gradino, che trasforma l&#039;input in un output binario. Se &#039;&#039;z&#039;&#039; è maggiore di una certa soglia, l&#039;output &#039;&#039;y&#039;&#039; è 1, altrimenti è 0.&lt;br /&gt;
* &#039;&#039;&#039;Output&#039;&#039;&#039;:&lt;br /&gt;
L&#039;output &#039;&#039;y&#039;&#039; è il risultato del processo di attivazione e rappresenta la risposta del perceptron agli input forniti. Questo può essere il risultato finale o può essere utilizzato come input per un altro nodo in una rete più grande.&lt;br /&gt;
&lt;br /&gt;
[[File:Perceptron.png|nessuno|miniatura|600x600px|Perceptron]]&lt;br /&gt;
&lt;br /&gt;
==Limitazioni e Potenzialità==&lt;br /&gt;
Sebbene il perceptron mostri notevoli &#039;&#039;&#039;capacità di apprendimento e generalizzazione&#039;&#039;&#039;, Rosenblatt riconosce le sue &#039;&#039;&#039;limitazioni&#039;&#039;&#039;, in particolare la &#039;&#039;&#039;difficoltà nel gestire relazioni astratte&#039;&#039;&#039; o nel &#039;&#039;&#039;riconoscere pattern&#039;&#039;&#039; basati su &#039;&#039;&#039;relazioni spaziali&#039;&#039;&#039; o &#039;&#039;&#039;temporali complesse&#039;&#039;&#039;.&lt;br /&gt;
&lt;br /&gt;
Rosenblatt conclude che il perceptron offre una base promettente per ulteriori ricerche sui sistemi cognitivi, sia biologici sia artificiali. Il suo lavoro evidenzia l&#039;importanza della &#039;&#039;&#039;modellazione computazionale e probabilistica&#039;&#039;&#039; nell&#039;elaborazione delle informazioni e pone le basi per &#039;&#039;&#039;futuri sviluppi nell&#039;intelligenza artificiale&#039;&#039;&#039; e nella &#039;&#039;&#039;comprensione dei meccanismi di apprendimento&#039;&#039;&#039; e &#039;&#039;&#039;memoria nel cervello&#039;&#039;&#039;.&lt;br /&gt;
&lt;br /&gt;
==Link==&lt;br /&gt;
===Paper===&lt;br /&gt;
[https://psycnet.apa.org/record/1959-09865-001 The perceptron: A probabilistic model for information storage and organization in the brain (1958)]: paper originale&lt;br /&gt;
&lt;br /&gt;
[[Category:architettura]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
__SHOWFACTBOX__&lt;/div&gt;</summary>
		<author><name>Ilaria Maserati</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Rete_Neurale_Artificiale_(ANN)&amp;diff=2203</id>
		<title>Rete Neurale Artificiale (ANN)</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Rete_Neurale_Artificiale_(ANN)&amp;diff=2203"/>
		<updated>2024-04-11T15:02:02Z</updated>

		<summary type="html">&lt;p&gt;Ilaria Maserati: /* Limitazioni e Potenzialità */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Nome: [[Nome::Rete Neurale Artificiale]]&lt;br /&gt;
&lt;br /&gt;
Sigla: [[Sigla::ANN]]&lt;br /&gt;
&lt;br /&gt;
Anno Di Creazione: [[AnnoDiCreazione::1957]]&lt;br /&gt;
&lt;br /&gt;
Pubblicazione: [[Pubblicazione::The perceptron: A probabilistic model for information storage and organization in the brain]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{#set: NomeInglese=Artificial Neural Network }}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Un software basato e strutturato sulla base di principi ispirati al funzionamento del cervello umano, che ha l&#039;obiettivo di creare macchine che possano &#039;&#039;&#039;imparare&#039;&#039;&#039; come gli esseri umani. In questo senso, le reti neurali sono un campo dell&#039;[[apprendimento automatico]].&lt;br /&gt;
&lt;br /&gt;
==Intro==&lt;br /&gt;
Il paper &#039;&#039;&amp;quot;The Perceptron: A Probabilistic Model for Information Storage and Organization in the Brain&amp;quot;&#039;&#039; di Frank Rosenblatt propone il perceptron come modello teorico per &#039;&#039;&#039;l&#039;elaborazione delle informazioni nel cervello&#039;&#039;&#039;. Questo modello mira a spiegare come gli organismi superiori riconoscano pattern, generalizzino, ricordino e pensino attraverso un sistema che simula il &#039;&#039;&#039;funzionamento dei neuroni&#039;&#039;&#039;. Rosenblatt esplora due questioni centrali: come le informazioni vengono memorizzate e come influenzano il riconoscimento e il comportamento.&lt;br /&gt;
&lt;br /&gt;
==Memoria e Rappresentazione dell&#039;Informazione==&lt;br /&gt;
Il lavoro presenta due teorie sulla memorizzazione dell&#039;informazione sensoriale:&lt;br /&gt;
* &#039;&#039;&#039;Memoria Codificata&#039;&#039;&#039;: Suggerisce che le informazioni vengano conservate come rappresentazioni o immagini codificate, permettendo una corrispondenza uno-a-uno tra stimoli sensoriali e pattern memorizzati.&lt;br /&gt;
* &#039;&#039;&#039;Rete di Interruttori&#039;&#039;&#039;: Propone che il sistema nervoso centrale funzioni come una complessa rete di interruttori, dove nuovi collegamenti si formano in risposta agli stimoli, enfatizzando l&#039;idea di apprendimento come formazione di nuovi percorsi neurali.&lt;br /&gt;
&lt;br /&gt;
==Il Modello del Perceptron==&lt;br /&gt;
Il perceptron è presentato come un modello teorico per esplorare le &#039;&#039;&#039;proprietà fondamentali dei sistemi intelligenti&#039;&#039;&#039;, facendo analogie con il &#039;&#039;&#039;sistema nervoso biologico&#039;&#039;&#039; senza soffermarsi troppo sulle specificità di organismi particolari. Questo modello utilizza la &#039;&#039;&#039;teoria della probabilità&#039;&#039;&#039; anziché la logica simbolica, distinguendosi dai modelli cerebrali precedenti che si basavano su algoritmi specifici.&lt;br /&gt;
&lt;br /&gt;
==Funzionamento e capacità di Apprendimento==&lt;br /&gt;
Il perceptron può apprendere attraverso &#039;&#039;&#039;rinforzi&#039;&#039;&#039; e ha la capacità di &#039;&#039;&#039;riconoscere e generalizzare pattern&#039;&#039;&#039; a partire da &#039;&#039;&#039;input sensoriali&#039;&#039;&#039; come stimoli ambientali. Rosenblatt discute dettagliatamente la struttura e il funzionamento del perceptron, inclusa la sua capacità di formare &#039;&#039;&#039;connessioni&#039;&#039;&#039; basate su &#039;&#039;&#039;esperienze passate&#039;&#039;&#039; e di adattarsi a nuovi stimoli attraverso processi di &#039;&#039;&#039;rinforzo positivo e negativo&#039;&#039;&#039;.&lt;br /&gt;
&lt;br /&gt;
==Diagramma Perceptron==&lt;br /&gt;
La foto mostra lo schema di un &#039;&#039;&#039;Perceptron&#039;&#039;&#039;, che è la forma più semplice di una &#039;&#039;&#039;Rete Neurale Artificiale&#039;&#039;&#039;, come definita dal suo inventore, &#039;&#039;&#039;Frank Rosenblatt&#039;&#039;&#039;. Di seguito come funziona il perceptron:&lt;br /&gt;
* &#039;&#039;&#039;Inputs&#039;&#039;&#039;:&lt;br /&gt;
Gli input (&#039;&#039;x0, x1, ..., xN&#039;&#039;) sono i segnali in entrata al perceptron. L&#039;input &#039;&#039;x0&#039;&#039; è solitamente l&#039;input di bias che aiuta a spostare il limite decisionale del perceptron per migliorare l&#039;apprendimento.&lt;br /&gt;
* &#039;&#039;&#039;Pesi (Weights)&#039;&#039;&#039;:&lt;br /&gt;
Ogni input ha un peso associato (&#039;&#039;w1, w2, ..., wN&#039;&#039;) più un peso per il bias (&#039;&#039;b&#039;&#039;). Questi pesi sono parametri adattivi che il perceptron impara durante la fase di training. Il peso &#039;&#039;b&#039;&#039; è il bias che può essere visto come il peso associato a &#039;&#039;x0&#039;&#039;.&lt;br /&gt;
* &#039;&#039;&#039;Funzione lineare&#039;&#039;&#039;:&lt;br /&gt;
La funzione lineare è la somma ponderata degli input. Ogni input è moltiplicato per il proprio peso e poi tutti i risultati sono sommati insieme per formare il valore intermedio &#039;&#039;z&#039;&#039;. La formula è &#039;&#039;z = x0b + x1w1 + x2w2 + ... + xNwN&#039;&#039;.&lt;br /&gt;
* &#039;&#039;&#039;[[Funzione di attivazione|Funzione di attivazione]]&#039;&#039;&#039;:&lt;br /&gt;
Il valore intermedio &#039;&#039;z&#039;&#039; viene passato attraverso una funzione di attivazione (indicata con la lettera &#039;&#039;f&#039;&#039;). Nelle versioni originali del perceptron, questa era spesso una funzione a gradino, che trasforma l&#039;input in un output binario. Se &#039;&#039;z&#039;&#039; è maggiore di una certa soglia, l&#039;output &#039;&#039;y&#039;&#039; è 1, altrimenti è 0.&lt;br /&gt;
* &#039;&#039;&#039;Output&#039;&#039;&#039;:&lt;br /&gt;
L&#039;output &#039;&#039;y&#039;&#039; è il risultato del processo di attivazione e rappresenta la risposta del perceptron agli input forniti. Questo può essere il risultato finale o può essere utilizzato come input per un altro nodo in una rete più grande.&lt;br /&gt;
&lt;br /&gt;
[[File:Perceptron.png|nessuno|miniatura|600x600px|Perceptron]]&lt;br /&gt;
&lt;br /&gt;
==Limitazioni e Potenzialità==&lt;br /&gt;
Sebbene il perceptron mostri notevoli &#039;&#039;&#039;capacità di apprendimento e generalizzazione&#039;&#039;&#039;, Rosenblatt riconosce le sue &#039;&#039;&#039;limitazioni&#039;&#039;&#039;, in particolare la &#039;&#039;&#039;difficoltà nel gestire relazioni astratte&#039;&#039;&#039; o nel &#039;&#039;&#039;riconoscere pattern&#039;&#039;&#039; basati su &#039;&#039;&#039;relazioni spaziali&#039;&#039;&#039; o &#039;&#039;&#039;temporali complesse&#039;&#039;&#039;.&lt;br /&gt;
&lt;br /&gt;
Rosenblatt conclude che il perceptron offre una base promettente per ulteriori ricerche sui sistemi cognitivi, sia biologici sia artificiali. Il suo lavoro evidenzia l&#039;importanza della &#039;&#039;&#039;modellazione computazionale e probabilistica&#039;&#039;&#039; nell&#039;elaborazione delle informazioni e pone le basi per &#039;&#039;&#039;futuri sviluppi nell&#039;intelligenza artificiale&#039;&#039;&#039; e nella &#039;&#039;&#039;comprensione dei meccanismi di apprendimento&#039;&#039;&#039; e &#039;&#039;&#039;memoria nel cervello&#039;&#039;&#039;.&lt;br /&gt;
&lt;br /&gt;
==Link==&lt;br /&gt;
===Paper===&lt;br /&gt;
[https://psycnet.apa.org/record/1959-09865-001 The perceptron: A probabilistic model for information storage and organization in the brain (1958)]: paper originale&lt;br /&gt;
&lt;br /&gt;
[[Category:architettura]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
__SHOWFACTBOX__&lt;/div&gt;</summary>
		<author><name>Ilaria Maserati</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Rete_Neurale_Artificiale_(ANN)&amp;diff=2201</id>
		<title>Rete Neurale Artificiale (ANN)</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Rete_Neurale_Artificiale_(ANN)&amp;diff=2201"/>
		<updated>2024-04-11T15:00:07Z</updated>

		<summary type="html">&lt;p&gt;Ilaria Maserati: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Nome: [[Nome::Rete Neurale Artificiale]]&lt;br /&gt;
&lt;br /&gt;
Sigla: [[Sigla::ANN]]&lt;br /&gt;
&lt;br /&gt;
Anno Di Creazione: [[AnnoDiCreazione::1957]]&lt;br /&gt;
&lt;br /&gt;
Pubblicazione: [[Pubblicazione::The perceptron: A probabilistic model for information storage and organization in the brain]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{#set: NomeInglese=Artificial Neural Network }}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Un software basato e strutturato sulla base di principi ispirati al funzionamento del cervello umano, che ha l&#039;obiettivo di creare macchine che possano &#039;&#039;&#039;imparare&#039;&#039;&#039; come gli esseri umani. In questo senso, le reti neurali sono un campo dell&#039;[[apprendimento automatico]].&lt;br /&gt;
&lt;br /&gt;
==Intro==&lt;br /&gt;
Il paper &#039;&#039;&amp;quot;The Perceptron: A Probabilistic Model for Information Storage and Organization in the Brain&amp;quot;&#039;&#039; di Frank Rosenblatt propone il perceptron come modello teorico per &#039;&#039;&#039;l&#039;elaborazione delle informazioni nel cervello&#039;&#039;&#039;. Questo modello mira a spiegare come gli organismi superiori riconoscano pattern, generalizzino, ricordino e pensino attraverso un sistema che simula il &#039;&#039;&#039;funzionamento dei neuroni&#039;&#039;&#039;. Rosenblatt esplora due questioni centrali: come le informazioni vengono memorizzate e come influenzano il riconoscimento e il comportamento.&lt;br /&gt;
&lt;br /&gt;
==Memoria e Rappresentazione dell&#039;Informazione==&lt;br /&gt;
Il lavoro presenta due teorie sulla memorizzazione dell&#039;informazione sensoriale:&lt;br /&gt;
* &#039;&#039;&#039;Memoria Codificata&#039;&#039;&#039;: Suggerisce che le informazioni vengano conservate come rappresentazioni o immagini codificate, permettendo una corrispondenza uno-a-uno tra stimoli sensoriali e pattern memorizzati.&lt;br /&gt;
* &#039;&#039;&#039;Rete di Interruttori&#039;&#039;&#039;: Propone che il sistema nervoso centrale funzioni come una complessa rete di interruttori, dove nuovi collegamenti si formano in risposta agli stimoli, enfatizzando l&#039;idea di apprendimento come formazione di nuovi percorsi neurali.&lt;br /&gt;
&lt;br /&gt;
==Il Modello del Perceptron==&lt;br /&gt;
Il perceptron è presentato come un modello teorico per esplorare le &#039;&#039;&#039;proprietà fondamentali dei sistemi intelligenti&#039;&#039;&#039;, facendo analogie con il &#039;&#039;&#039;sistema nervoso biologico&#039;&#039;&#039; senza soffermarsi troppo sulle specificità di organismi particolari. Questo modello utilizza la &#039;&#039;&#039;teoria della probabilità&#039;&#039;&#039; anziché la logica simbolica, distinguendosi dai modelli cerebrali precedenti che si basavano su algoritmi specifici.&lt;br /&gt;
&lt;br /&gt;
==Funzionamento e capacità di Apprendimento==&lt;br /&gt;
Il perceptron può apprendere attraverso &#039;&#039;&#039;rinforzi&#039;&#039;&#039; e ha la capacità di &#039;&#039;&#039;riconoscere e generalizzare pattern&#039;&#039;&#039; a partire da &#039;&#039;&#039;input sensoriali&#039;&#039;&#039; come stimoli ambientali. Rosenblatt discute dettagliatamente la struttura e il funzionamento del perceptron, inclusa la sua capacità di formare &#039;&#039;&#039;connessioni&#039;&#039;&#039; basate su &#039;&#039;&#039;esperienze passate&#039;&#039;&#039; e di adattarsi a nuovi stimoli attraverso processi di &#039;&#039;&#039;rinforzo positivo e negativo&#039;&#039;&#039;.&lt;br /&gt;
&lt;br /&gt;
==Diagramma Perceptron==&lt;br /&gt;
La foto mostra lo schema di un &#039;&#039;&#039;Perceptron&#039;&#039;&#039;, che è la forma più semplice di una &#039;&#039;&#039;Rete Neurale Artificiale&#039;&#039;&#039;, come definita dal suo inventore, &#039;&#039;&#039;Frank Rosenblatt&#039;&#039;&#039;. Di seguito come funziona il perceptron:&lt;br /&gt;
* &#039;&#039;&#039;Inputs&#039;&#039;&#039;:&lt;br /&gt;
Gli input (&#039;&#039;x0, x1, ..., xN&#039;&#039;) sono i segnali in entrata al perceptron. L&#039;input &#039;&#039;x0&#039;&#039; è solitamente l&#039;input di bias che aiuta a spostare il limite decisionale del perceptron per migliorare l&#039;apprendimento.&lt;br /&gt;
* &#039;&#039;&#039;Pesi (Weights)&#039;&#039;&#039;:&lt;br /&gt;
Ogni input ha un peso associato (&#039;&#039;w1, w2, ..., wN&#039;&#039;) più un peso per il bias (&#039;&#039;b&#039;&#039;). Questi pesi sono parametri adattivi che il perceptron impara durante la fase di training. Il peso &#039;&#039;b&#039;&#039; è il bias che può essere visto come il peso associato a &#039;&#039;x0&#039;&#039;.&lt;br /&gt;
* &#039;&#039;&#039;Funzione lineare&#039;&#039;&#039;:&lt;br /&gt;
La funzione lineare è la somma ponderata degli input. Ogni input è moltiplicato per il proprio peso e poi tutti i risultati sono sommati insieme per formare il valore intermedio &#039;&#039;z&#039;&#039;. La formula è &#039;&#039;z = x0b + x1w1 + x2w2 + ... + xNwN&#039;&#039;.&lt;br /&gt;
* &#039;&#039;&#039;[[Funzione di attivazione|Funzione di attivazione]]&#039;&#039;&#039;:&lt;br /&gt;
Il valore intermedio &#039;&#039;z&#039;&#039; viene passato attraverso una funzione di attivazione (indicata con la lettera &#039;&#039;f&#039;&#039;). Nelle versioni originali del perceptron, questa era spesso una funzione a gradino, che trasforma l&#039;input in un output binario. Se &#039;&#039;z&#039;&#039; è maggiore di una certa soglia, l&#039;output &#039;&#039;y&#039;&#039; è 1, altrimenti è 0.&lt;br /&gt;
* &#039;&#039;&#039;Output&#039;&#039;&#039;:&lt;br /&gt;
L&#039;output &#039;&#039;y&#039;&#039; è il risultato del processo di attivazione e rappresenta la risposta del perceptron agli input forniti. Questo può essere il risultato finale o può essere utilizzato come input per un altro nodo in una rete più grande.&lt;br /&gt;
&lt;br /&gt;
[[File:Perceptron.png|nessuno|miniatura|600x600px|Perceptron]]&lt;br /&gt;
&lt;br /&gt;
==Limitazioni e Potenzialità==&lt;br /&gt;
Sebbene il perceptron mostri notevoli &#039;&#039;&#039;capacità di apprendimento e generalizzazione&#039;&#039;&#039;, Rosenblatt riconosce le sue &#039;&#039;&#039;limitazioni&#039;&#039;&#039;, in particolare la &#039;&#039;&#039;difficoltà nel gestire relazioni astratte&#039;&#039;&#039; o nel &#039;&#039;&#039;riconoscere pattern&#039;&#039;&#039; basati su &#039;&#039;&#039;relazioni spaziali&#039;&#039;&#039; o &#039;&#039;&#039;temporali complesse&#039;&#039;&#039;.&lt;br /&gt;
Rosenblatt conclude che il perceptron offre una base promettente per ulteriori ricerche sui sistemi cognitivi, sia biologici sia artificiali. Il suo lavoro evidenzia l&#039;importanza della &#039;&#039;&#039;modellazione computazionale e probabilistica&#039;&#039;&#039; nell&#039;elaborazione delle informazioni e pone le basi per &#039;&#039;&#039;futuri sviluppi nell&#039;intelligenza artificiale&#039;&#039;&#039; e nella &#039;&#039;&#039;comprensione dei meccanismi di apprendimento&#039;&#039;&#039; e &#039;&#039;&#039;memoria nel cervello&#039;&#039;&#039;.&lt;br /&gt;
&lt;br /&gt;
==Link==&lt;br /&gt;
===Paper===&lt;br /&gt;
[https://psycnet.apa.org/record/1959-09865-001 The perceptron: A probabilistic model for information storage and organization in the brain (1958)]: paper originale&lt;br /&gt;
&lt;br /&gt;
[[Category:architettura]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
__SHOWFACTBOX__&lt;/div&gt;</summary>
		<author><name>Ilaria Maserati</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Rete_Neurale_Artificiale_(ANN)&amp;diff=2197</id>
		<title>Rete Neurale Artificiale (ANN)</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Rete_Neurale_Artificiale_(ANN)&amp;diff=2197"/>
		<updated>2024-04-11T14:56:29Z</updated>

		<summary type="html">&lt;p&gt;Ilaria Maserati: /* Funzionamento e capacità di Apprendimento */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Nome: [[Nome::Rete Neurale Artificiale]]&lt;br /&gt;
&lt;br /&gt;
Sigla: [[Sigla::ANN]]&lt;br /&gt;
&lt;br /&gt;
Anno Di Creazione: [[AnnoDiCreazione::1957]]&lt;br /&gt;
&lt;br /&gt;
Pubblicazione: [[Pubblicazione::The perceptron: A probabilistic model for information storage and organization in the brain]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{#set: NomeInglese=Artificial Neural Network }}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Un software basato e strutturato sulla base di principi ispirati al funzionamento del cervello umano, che ha l&#039;obiettivo di creare macchine che possano &#039;&#039;&#039;imparare&#039;&#039;&#039; come gli esseri umani. In questo senso, le reti neurali sono un campo dell&#039;[[apprendimento automatico]].&lt;br /&gt;
&lt;br /&gt;
==Intro==&lt;br /&gt;
Il paper &#039;&#039;&amp;quot;The Perceptron: A Probabilistic Model for Information Storage and Organization in the Brain&amp;quot;&#039;&#039; di Frank Rosenblatt propone il perceptron come modello teorico per &#039;&#039;&#039;l&#039;elaborazione delle informazioni nel cervello&#039;&#039;&#039;. Questo modello mira a spiegare come gli organismi superiori riconoscano pattern, generalizzino, ricordino e pensino attraverso un sistema che simula il &#039;&#039;&#039;funzionamento dei neuroni&#039;&#039;&#039;. Rosenblatt esplora due questioni centrali: come le informazioni vengono memorizzate e come influenzano il riconoscimento e il comportamento.&lt;br /&gt;
&lt;br /&gt;
==Memoria e Rappresentazione dell&#039;Informazione==&lt;br /&gt;
Il lavoro presenta due teorie sulla memorizzazione dell&#039;informazione sensoriale:&lt;br /&gt;
* &#039;&#039;&#039;Memoria Codificata&#039;&#039;&#039;: Suggerisce che le informazioni vengano conservate come rappresentazioni o immagini codificate, permettendo una corrispondenza uno-a-uno tra stimoli sensoriali e pattern memorizzati.&lt;br /&gt;
* &#039;&#039;&#039;Rete di Interruttori&#039;&#039;&#039;: Propone che il sistema nervoso centrale funzioni come una complessa rete di interruttori, dove nuovi collegamenti si formano in risposta agli stimoli, enfatizzando l&#039;idea di apprendimento come formazione di nuovi percorsi neurali.&lt;br /&gt;
&lt;br /&gt;
==Il Modello del Perceptron==&lt;br /&gt;
Il perceptron è presentato come un modello teorico per esplorare le &#039;&#039;&#039;proprietà fondamentali dei sistemi intelligenti&#039;&#039;&#039;, facendo analogie con il &#039;&#039;&#039;sistema nervoso biologico&#039;&#039;&#039; senza soffermarsi troppo sulle specificità di organismi particolari. Questo modello utilizza la &#039;&#039;&#039;teoria della probabilità&#039;&#039;&#039; anziché la logica simbolica, distinguendosi dai modelli cerebrali precedenti che si basavano su algoritmi specifici.&lt;br /&gt;
&lt;br /&gt;
==Funzionamento e capacità di Apprendimento==&lt;br /&gt;
Il perceptron può apprendere attraverso &#039;&#039;&#039;rinforzi&#039;&#039;&#039; e ha la capacità di &#039;&#039;&#039;riconoscere e generalizzare pattern&#039;&#039;&#039; a partire da &#039;&#039;&#039;input sensoriali&#039;&#039;&#039; come stimoli ambientali. Rosenblatt discute dettagliatamente la struttura e il funzionamento del perceptron, inclusa la sua capacità di formare &#039;&#039;&#039;connessioni&#039;&#039;&#039; basate su &#039;&#039;&#039;esperienze passate&#039;&#039;&#039; e di adattarsi a nuovi stimoli attraverso processi di &#039;&#039;&#039;rinforzo positivo e negativo&#039;&#039;&#039;.&lt;br /&gt;
&lt;br /&gt;
==Diagramma Perceptron==&lt;br /&gt;
La foto mostra lo schema di un &#039;&#039;&#039;Perceptron&#039;&#039;&#039;, che è la forma più semplice di una &#039;&#039;&#039;Rete Neurale Artificiale&#039;&#039;&#039;, come definita dal suo inventore, &#039;&#039;&#039;Frank Rosenblatt&#039;&#039;&#039;. Di seguito come funziona il perceptron:&lt;br /&gt;
* &#039;&#039;&#039;Inputs&#039;&#039;&#039;:&lt;br /&gt;
Gli input (&#039;&#039;x0, x1, ..., xN&#039;&#039;) sono i segnali in entrata al perceptron. L&#039;input &#039;&#039;x0&#039;&#039; è solitamente l&#039;input di bias che aiuta a spostare il limite decisionale del perceptron per migliorare l&#039;apprendimento.&lt;br /&gt;
* &#039;&#039;&#039;Pesi (Weights)&#039;&#039;&#039;:&lt;br /&gt;
Ogni input ha un peso associato (&#039;&#039;w1, w2, ..., wN&#039;&#039;) più un peso per il bias (&#039;&#039;b&#039;&#039;). Questi pesi sono parametri adattivi che il perceptron impara durante la fase di training. Il peso &#039;&#039;b&#039;&#039; è il bias che può essere visto come il peso associato a &#039;&#039;x0&#039;&#039;.&lt;br /&gt;
* &#039;&#039;&#039;Funzione lineare&#039;&#039;&#039;:&lt;br /&gt;
La funzione lineare è la somma ponderata degli input. Ogni input è moltiplicato per il proprio peso e poi tutti i risultati sono sommati insieme per formare il valore intermedio &#039;&#039;z&#039;&#039;. La formula è &#039;&#039;z = x0b + x1w1 + x2w2 + ... + xNwN&#039;&#039;.&lt;br /&gt;
* &#039;&#039;&#039;[[Funzione di attivazione|Funzione di attivazione]]&#039;&#039;&#039;:&lt;br /&gt;
Il valore intermedio &#039;&#039;z&#039;&#039; viene passato attraverso una funzione di attivazione (indicata con la lettera &#039;&#039;f&#039;&#039;). Nelle versioni originali del perceptron, questa era spesso una funzione a gradino, che trasforma l&#039;input in un output binario. Se &#039;&#039;z&#039;&#039; è maggiore di una certa soglia, l&#039;output &#039;&#039;y&#039;&#039; è 1, altrimenti è 0.&lt;br /&gt;
* &#039;&#039;&#039;Output&#039;&#039;&#039;:&lt;br /&gt;
L&#039;output &#039;&#039;y&#039;&#039; è il risultato del processo di attivazione e rappresenta la risposta del perceptron agli input forniti. Questo può essere il risultato finale o può essere utilizzato come input per un altro nodo in una rete più grande.&lt;br /&gt;
&lt;br /&gt;
[[File:Perceptron.png|nessuno|miniatura|600x600px|Perceptron]]&lt;br /&gt;
&lt;br /&gt;
==Limitazioni e Potenzialità==&lt;br /&gt;
Sebbene il perceptron mostri notevoli &#039;&#039;&#039;capacità di apprendimento e generalizzazione&#039;&#039;&#039;, Rosenblatt riconosce le sue &#039;&#039;&#039;limitazioni&#039;&#039;&#039;, in particolare la &#039;&#039;&#039;difficoltà nel gestire relazioni astratte&#039;&#039;&#039; o nel &#039;&#039;&#039;riconoscere pattern&#039;&#039;&#039; basati su &#039;&#039;&#039;relazioni spaziali&#039;&#039;&#039; o &#039;&#039;&#039;temporali complesse&#039;&#039;&#039;.&lt;br /&gt;
Rosenblatt conclude che il perceptron offre una base promettente per ulteriori ricerche sui sistemi cognitivi, sia biologici sia artificiali. Il suo lavoro evidenzia l&#039;importanza della &#039;&#039;&#039;modellazione computazionale e probabilistica&#039;&#039;&#039; nell&#039;elaborazione delle informazioni e pone le basi per &#039;&#039;&#039;futuri sviluppi nell&#039;intelligenza artificiale&#039;&#039;&#039; e nella &#039;&#039;&#039;comprensione dei meccanismi di apprendimento&#039;&#039;&#039; e &#039;&#039;&#039;memoria nel cervello&#039;&#039;&#039;.&lt;br /&gt;
&lt;br /&gt;
[[Category:architettura]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
__SHOWFACTBOX__&lt;/div&gt;</summary>
		<author><name>Ilaria Maserati</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Rete_Neurale_Artificiale_(ANN)&amp;diff=2195</id>
		<title>Rete Neurale Artificiale (ANN)</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Rete_Neurale_Artificiale_(ANN)&amp;diff=2195"/>
		<updated>2024-04-11T14:54:13Z</updated>

		<summary type="html">&lt;p&gt;Ilaria Maserati: /* Funzionamento e Capacità di Apprendimento */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Nome: [[Nome::Rete Neurale Artificiale]]&lt;br /&gt;
&lt;br /&gt;
Sigla: [[Sigla::ANN]]&lt;br /&gt;
&lt;br /&gt;
Anno Di Creazione: [[AnnoDiCreazione::1957]]&lt;br /&gt;
&lt;br /&gt;
Pubblicazione: [[Pubblicazione::The perceptron: A probabilistic model for information storage and organization in the brain]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{#set: NomeInglese=Artificial Neural Network }}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Un software basato e strutturato sulla base di principi ispirati al funzionamento del cervello umano, che ha l&#039;obiettivo di creare macchine che possano &#039;&#039;&#039;imparare&#039;&#039;&#039; come gli esseri umani. In questo senso, le reti neurali sono un campo dell&#039;[[apprendimento automatico]].&lt;br /&gt;
&lt;br /&gt;
==Intro==&lt;br /&gt;
Il paper &#039;&#039;&amp;quot;The Perceptron: A Probabilistic Model for Information Storage and Organization in the Brain&amp;quot;&#039;&#039; di Frank Rosenblatt propone il perceptron come modello teorico per &#039;&#039;&#039;l&#039;elaborazione delle informazioni nel cervello&#039;&#039;&#039;. Questo modello mira a spiegare come gli organismi superiori riconoscano pattern, generalizzino, ricordino e pensino attraverso un sistema che simula il &#039;&#039;&#039;funzionamento dei neuroni&#039;&#039;&#039;. Rosenblatt esplora due questioni centrali: come le informazioni vengono memorizzate e come influenzano il riconoscimento e il comportamento.&lt;br /&gt;
&lt;br /&gt;
==Memoria e Rappresentazione dell&#039;Informazione==&lt;br /&gt;
Il lavoro presenta due teorie sulla memorizzazione dell&#039;informazione sensoriale:&lt;br /&gt;
* &#039;&#039;&#039;Memoria Codificata&#039;&#039;&#039;: Suggerisce che le informazioni vengano conservate come rappresentazioni o immagini codificate, permettendo una corrispondenza uno-a-uno tra stimoli sensoriali e pattern memorizzati.&lt;br /&gt;
* &#039;&#039;&#039;Rete di Interruttori&#039;&#039;&#039;: Propone che il sistema nervoso centrale funzioni come una complessa rete di interruttori, dove nuovi collegamenti si formano in risposta agli stimoli, enfatizzando l&#039;idea di apprendimento come formazione di nuovi percorsi neurali.&lt;br /&gt;
&lt;br /&gt;
==Il Modello del Perceptron==&lt;br /&gt;
Il perceptron è presentato come un modello teorico per esplorare le &#039;&#039;&#039;proprietà fondamentali dei sistemi intelligenti&#039;&#039;&#039;, facendo analogie con il &#039;&#039;&#039;sistema nervoso biologico&#039;&#039;&#039; senza soffermarsi troppo sulle specificità di organismi particolari. Questo modello utilizza la &#039;&#039;&#039;teoria della probabilità&#039;&#039;&#039; anziché la logica simbolica, distinguendosi dai modelli cerebrali precedenti che si basavano su algoritmi specifici.&lt;br /&gt;
&lt;br /&gt;
==Funzionamento e capacità di Apprendimento==&lt;br /&gt;
Il perceptron può apprendere attraverso &#039;&#039;&#039;rinforzi&#039;&#039;&#039; e ha la capacità di &#039;&#039;&#039;riconoscere e generalizzare pattern&#039;&#039;&#039; a partire da &#039;&#039;&#039;input sensoriali&#039;&#039;&#039;. Rosenblatt discute dettagliatamente la struttura e il funzionamento del perceptron, inclusa la sua capacità di formare &#039;&#039;&#039;connessioni&#039;&#039;&#039; basate su &#039;&#039;&#039;esperienze passate&#039;&#039;&#039; e di adattarsi a nuovi stimoli attraverso processi di &#039;&#039;&#039;rinforzo positivo e negativo&#039;&#039;&#039;.&lt;br /&gt;
&lt;br /&gt;
==Diagramma Perceptron==&lt;br /&gt;
La foto mostra lo schema di un &#039;&#039;&#039;Perceptron&#039;&#039;&#039;, che è la forma più semplice di una &#039;&#039;&#039;Rete Neurale Artificiale&#039;&#039;&#039;, come definita dal suo inventore, &#039;&#039;&#039;Frank Rosenblatt&#039;&#039;&#039;. Di seguito come funziona il perceptron:&lt;br /&gt;
* &#039;&#039;&#039;Inputs&#039;&#039;&#039;:&lt;br /&gt;
Gli input (&#039;&#039;x0, x1, ..., xN&#039;&#039;) sono i segnali in entrata al perceptron. L&#039;input &#039;&#039;x0&#039;&#039; è solitamente l&#039;input di bias che aiuta a spostare il limite decisionale del perceptron per migliorare l&#039;apprendimento.&lt;br /&gt;
* &#039;&#039;&#039;Pesi (Weights)&#039;&#039;&#039;:&lt;br /&gt;
Ogni input ha un peso associato (&#039;&#039;w1, w2, ..., wN&#039;&#039;) più un peso per il bias (&#039;&#039;b&#039;&#039;). Questi pesi sono parametri adattivi che il perceptron impara durante la fase di training. Il peso &#039;&#039;b&#039;&#039; è il bias che può essere visto come il peso associato a &#039;&#039;x0&#039;&#039;.&lt;br /&gt;
* &#039;&#039;&#039;Funzione lineare&#039;&#039;&#039;:&lt;br /&gt;
La funzione lineare è la somma ponderata degli input. Ogni input è moltiplicato per il proprio peso e poi tutti i risultati sono sommati insieme per formare il valore intermedio &#039;&#039;z&#039;&#039;. La formula è &#039;&#039;z = x0b + x1w1 + x2w2 + ... + xNwN&#039;&#039;.&lt;br /&gt;
* &#039;&#039;&#039;[[Funzione di attivazione|Funzione di attivazione]]&#039;&#039;&#039;:&lt;br /&gt;
Il valore intermedio &#039;&#039;z&#039;&#039; viene passato attraverso una funzione di attivazione (indicata con la lettera &#039;&#039;f&#039;&#039;). Nelle versioni originali del perceptron, questa era spesso una funzione a gradino, che trasforma l&#039;input in un output binario. Se &#039;&#039;z&#039;&#039; è maggiore di una certa soglia, l&#039;output &#039;&#039;y&#039;&#039; è 1, altrimenti è 0.&lt;br /&gt;
* &#039;&#039;&#039;Output&#039;&#039;&#039;:&lt;br /&gt;
L&#039;output &#039;&#039;y&#039;&#039; è il risultato del processo di attivazione e rappresenta la risposta del perceptron agli input forniti. Questo può essere il risultato finale o può essere utilizzato come input per un altro nodo in una rete più grande.&lt;br /&gt;
&lt;br /&gt;
[[File:Perceptron.png|nessuno|miniatura|600x600px|Perceptron]]&lt;br /&gt;
&lt;br /&gt;
==Limitazioni e Potenzialità==&lt;br /&gt;
Sebbene il perceptron mostri notevoli &#039;&#039;&#039;capacità di apprendimento e generalizzazione&#039;&#039;&#039;, Rosenblatt riconosce le sue &#039;&#039;&#039;limitazioni&#039;&#039;&#039;, in particolare la &#039;&#039;&#039;difficoltà nel gestire relazioni astratte&#039;&#039;&#039; o nel &#039;&#039;&#039;riconoscere pattern&#039;&#039;&#039; basati su &#039;&#039;&#039;relazioni spaziali&#039;&#039;&#039; o &#039;&#039;&#039;temporali complesse&#039;&#039;&#039;.&lt;br /&gt;
Rosenblatt conclude che il perceptron offre una base promettente per ulteriori ricerche sui sistemi cognitivi, sia biologici sia artificiali. Il suo lavoro evidenzia l&#039;importanza della &#039;&#039;&#039;modellazione computazionale e probabilistica&#039;&#039;&#039; nell&#039;elaborazione delle informazioni e pone le basi per &#039;&#039;&#039;futuri sviluppi nell&#039;intelligenza artificiale&#039;&#039;&#039; e nella &#039;&#039;&#039;comprensione dei meccanismi di apprendimento&#039;&#039;&#039; e &#039;&#039;&#039;memoria nel cervello&#039;&#039;&#039;.&lt;br /&gt;
&lt;br /&gt;
[[Category:architettura]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
__SHOWFACTBOX__&lt;/div&gt;</summary>
		<author><name>Ilaria Maserati</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Rete_Neurale_Artificiale_(ANN)&amp;diff=2192</id>
		<title>Rete Neurale Artificiale (ANN)</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Rete_Neurale_Artificiale_(ANN)&amp;diff=2192"/>
		<updated>2024-04-11T14:52:31Z</updated>

		<summary type="html">&lt;p&gt;Ilaria Maserati: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Nome: [[Nome::Rete Neurale Artificiale]]&lt;br /&gt;
&lt;br /&gt;
Sigla: [[Sigla::ANN]]&lt;br /&gt;
&lt;br /&gt;
Anno Di Creazione: [[AnnoDiCreazione::1957]]&lt;br /&gt;
&lt;br /&gt;
Pubblicazione: [[Pubblicazione::The perceptron: A probabilistic model for information storage and organization in the brain]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{#set: NomeInglese=Artificial Neural Network }}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Un software basato e strutturato sulla base di principi ispirati al funzionamento del cervello umano, che ha l&#039;obiettivo di creare macchine che possano &#039;&#039;&#039;imparare&#039;&#039;&#039; come gli esseri umani. In questo senso, le reti neurali sono un campo dell&#039;[[apprendimento automatico]].&lt;br /&gt;
&lt;br /&gt;
==Intro==&lt;br /&gt;
Il paper &#039;&#039;&amp;quot;The Perceptron: A Probabilistic Model for Information Storage and Organization in the Brain&amp;quot;&#039;&#039; di Frank Rosenblatt propone il perceptron come modello teorico per &#039;&#039;&#039;l&#039;elaborazione delle informazioni nel cervello&#039;&#039;&#039;. Questo modello mira a spiegare come gli organismi superiori riconoscano pattern, generalizzino, ricordino e pensino attraverso un sistema che simula il &#039;&#039;&#039;funzionamento dei neuroni&#039;&#039;&#039;. Rosenblatt esplora due questioni centrali: come le informazioni vengono memorizzate e come influenzano il riconoscimento e il comportamento.&lt;br /&gt;
&lt;br /&gt;
==Memoria e Rappresentazione dell&#039;Informazione==&lt;br /&gt;
Il lavoro presenta due teorie sulla memorizzazione dell&#039;informazione sensoriale:&lt;br /&gt;
* &#039;&#039;&#039;Memoria Codificata&#039;&#039;&#039;: Suggerisce che le informazioni vengano conservate come rappresentazioni o immagini codificate, permettendo una corrispondenza uno-a-uno tra stimoli sensoriali e pattern memorizzati.&lt;br /&gt;
* &#039;&#039;&#039;Rete di Interruttori&#039;&#039;&#039;: Propone che il sistema nervoso centrale funzioni come una complessa rete di interruttori, dove nuovi collegamenti si formano in risposta agli stimoli, enfatizzando l&#039;idea di apprendimento come formazione di nuovi percorsi neurali.&lt;br /&gt;
&lt;br /&gt;
==Il Modello del Perceptron==&lt;br /&gt;
Il perceptron è presentato come un modello teorico per esplorare le &#039;&#039;&#039;proprietà fondamentali dei sistemi intelligenti&#039;&#039;&#039;, facendo analogie con il &#039;&#039;&#039;sistema nervoso biologico&#039;&#039;&#039; senza soffermarsi troppo sulle specificità di organismi particolari. Questo modello utilizza la &#039;&#039;&#039;teoria della probabilità&#039;&#039;&#039; anziché la logica simbolica, distinguendosi dai modelli cerebrali precedenti che si basavano su algoritmi specifici.&lt;br /&gt;
&lt;br /&gt;
==Funzionamento e Capacità di Apprendimento==&lt;br /&gt;
Il perceptron può apprendere attraverso &#039;&#039;&#039;rinforzi&#039;&#039;&#039; e ha la capacità di &#039;&#039;&#039;riconoscere e generalizzare pattern&#039;&#039;&#039; a partire da &#039;&#039;&#039;input sensoriali&#039;&#039;&#039;. Rosenblatt discute dettagliatamente la struttura e il funzionamento del perceptron, inclusa la sua capacità di formare &#039;&#039;&#039;connessioni&#039;&#039;&#039; basate su &#039;&#039;&#039;esperienze passate&#039;&#039;&#039; e di adattarsi a nuovi stimoli attraverso processi di &#039;&#039;&#039;rinforzo positivo e negativo&#039;&#039;&#039;.&lt;br /&gt;
&lt;br /&gt;
==Diagramma Perceptron==&lt;br /&gt;
La foto mostra lo schema di un &#039;&#039;&#039;Perceptron&#039;&#039;&#039;, che è la forma più semplice di una &#039;&#039;&#039;Rete Neurale Artificiale&#039;&#039;&#039;, come definita dal suo inventore, &#039;&#039;&#039;Frank Rosenblatt&#039;&#039;&#039;. Di seguito come funziona il perceptron:&lt;br /&gt;
* &#039;&#039;&#039;Inputs&#039;&#039;&#039;:&lt;br /&gt;
Gli input (&#039;&#039;x0, x1, ..., xN&#039;&#039;) sono i segnali in entrata al perceptron. L&#039;input &#039;&#039;x0&#039;&#039; è solitamente l&#039;input di bias che aiuta a spostare il limite decisionale del perceptron per migliorare l&#039;apprendimento.&lt;br /&gt;
* &#039;&#039;&#039;Pesi (Weights)&#039;&#039;&#039;:&lt;br /&gt;
Ogni input ha un peso associato (&#039;&#039;w1, w2, ..., wN&#039;&#039;) più un peso per il bias (&#039;&#039;b&#039;&#039;). Questi pesi sono parametri adattivi che il perceptron impara durante la fase di training. Il peso &#039;&#039;b&#039;&#039; è il bias che può essere visto come il peso associato a &#039;&#039;x0&#039;&#039;.&lt;br /&gt;
* &#039;&#039;&#039;Funzione lineare&#039;&#039;&#039;:&lt;br /&gt;
La funzione lineare è la somma ponderata degli input. Ogni input è moltiplicato per il proprio peso e poi tutti i risultati sono sommati insieme per formare il valore intermedio &#039;&#039;z&#039;&#039;. La formula è &#039;&#039;z = x0b + x1w1 + x2w2 + ... + xNwN&#039;&#039;.&lt;br /&gt;
* &#039;&#039;&#039;[[Funzione di attivazione|Funzione di attivazione]]&#039;&#039;&#039;:&lt;br /&gt;
Il valore intermedio &#039;&#039;z&#039;&#039; viene passato attraverso una funzione di attivazione (indicata con la lettera &#039;&#039;f&#039;&#039;). Nelle versioni originali del perceptron, questa era spesso una funzione a gradino, che trasforma l&#039;input in un output binario. Se &#039;&#039;z&#039;&#039; è maggiore di una certa soglia, l&#039;output &#039;&#039;y&#039;&#039; è 1, altrimenti è 0.&lt;br /&gt;
* &#039;&#039;&#039;Output&#039;&#039;&#039;:&lt;br /&gt;
L&#039;output &#039;&#039;y&#039;&#039; è il risultato del processo di attivazione e rappresenta la risposta del perceptron agli input forniti. Questo può essere il risultato finale o può essere utilizzato come input per un altro nodo in una rete più grande.&lt;br /&gt;
&lt;br /&gt;
[[File:Perceptron.png|nessuno|miniatura|600x600px|Perceptron]]&lt;br /&gt;
&lt;br /&gt;
==Limitazioni e Potenzialità==&lt;br /&gt;
Sebbene il perceptron mostri notevoli &#039;&#039;&#039;capacità di apprendimento e generalizzazione&#039;&#039;&#039;, Rosenblatt riconosce le sue &#039;&#039;&#039;limitazioni&#039;&#039;&#039;, in particolare la &#039;&#039;&#039;difficoltà nel gestire relazioni astratte&#039;&#039;&#039; o nel &#039;&#039;&#039;riconoscere pattern&#039;&#039;&#039; basati su &#039;&#039;&#039;relazioni spaziali&#039;&#039;&#039; o &#039;&#039;&#039;temporali complesse&#039;&#039;&#039;.&lt;br /&gt;
Rosenblatt conclude che il perceptron offre una base promettente per ulteriori ricerche sui sistemi cognitivi, sia biologici sia artificiali. Il suo lavoro evidenzia l&#039;importanza della &#039;&#039;&#039;modellazione computazionale e probabilistica&#039;&#039;&#039; nell&#039;elaborazione delle informazioni e pone le basi per &#039;&#039;&#039;futuri sviluppi nell&#039;intelligenza artificiale&#039;&#039;&#039; e nella &#039;&#039;&#039;comprensione dei meccanismi di apprendimento&#039;&#039;&#039; e &#039;&#039;&#039;memoria nel cervello&#039;&#039;&#039;.&lt;br /&gt;
&lt;br /&gt;
[[Category:architettura]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
__SHOWFACTBOX__&lt;/div&gt;</summary>
		<author><name>Ilaria Maserati</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Rete_Neurale_Artificiale_(ANN)&amp;diff=2178</id>
		<title>Rete Neurale Artificiale (ANN)</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Rete_Neurale_Artificiale_(ANN)&amp;diff=2178"/>
		<updated>2024-04-11T13:52:05Z</updated>

		<summary type="html">&lt;p&gt;Ilaria Maserati: /* Diagramma Perceptron */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Nome: [[Nome::Rete Neurale Artificiale]]&lt;br /&gt;
&lt;br /&gt;
Sigla: [[Sigla::ANN]]&lt;br /&gt;
&lt;br /&gt;
Anno Di Creazione: [[AnnoDiCreazione::1957]]&lt;br /&gt;
&lt;br /&gt;
Pubblicazione: [[Pubblicazione::The perceptron: A probabilistic model for information storage and organization in the brain]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{#set: NomeInglese=Artificial Neural Network }}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Un software basato e strutturato sulla base di principi ispirati al funzionamento del cervello umano, che ha l&#039;obiettivo di creare macchine che possano &#039;&#039;&#039;imparare&#039;&#039;&#039; come gli esseri umani. In questo senso, le reti neurali sono un campo dell&#039;[[apprendimento automatico]].&lt;br /&gt;
&lt;br /&gt;
==Diagramma Perceptron==&lt;br /&gt;
La foto mostra lo schema di un &#039;&#039;&#039;Perceptron&#039;&#039;&#039;, che è la forma più semplice di una &#039;&#039;&#039;Rete Neurale Artificiale&#039;&#039;&#039;, come definita dal suo inventore, &#039;&#039;&#039;Frank Rosenblatt&#039;&#039;&#039;. Di seguito come funziona il perceptron:&lt;br /&gt;
* &#039;&#039;&#039;Inputs&#039;&#039;&#039;:&lt;br /&gt;
Gli input (&#039;&#039;x0, x1, ..., xN&#039;&#039;) sono i segnali in entrata al perceptron. L&#039;input &#039;&#039;x0&#039;&#039; è solitamente l&#039;input di bias che aiuta a spostare il limite decisionale del perceptron per migliorare l&#039;apprendimento.&lt;br /&gt;
* &#039;&#039;&#039;Pesi (Weights)&#039;&#039;&#039;:&lt;br /&gt;
Ogni input ha un peso associato (&#039;&#039;w1, w2, ..., wN&#039;&#039;) più un peso per il bias (&#039;&#039;b&#039;&#039;). Questi pesi sono parametri adattivi che il perceptron impara durante la fase di training. Il peso &#039;&#039;b&#039;&#039; è il bias che può essere visto come il peso associato a &#039;&#039;x0&#039;&#039;.&lt;br /&gt;
* &#039;&#039;&#039;Funzione lineare&#039;&#039;&#039;:&lt;br /&gt;
La funzione lineare è la somma ponderata degli input. Ogni input è moltiplicato per il proprio peso e poi tutti i risultati sono sommati insieme per formare il valore intermedio &#039;&#039;z&#039;&#039;. La formula è &#039;&#039;z = x0b + x1w1 + x2w2 + ... + xNwN&#039;&#039;.&lt;br /&gt;
* &#039;&#039;&#039;[[Funzione di attivazione|Funzione di attivazione]]&#039;&#039;&#039;:&lt;br /&gt;
Il valore intermedio &#039;&#039;z&#039;&#039; viene passato attraverso una funzione di attivazione (indicata con la lettera &#039;&#039;f&#039;&#039;). Nelle versioni originali del perceptron, questa era spesso una funzione a gradino, che trasforma l&#039;input in un output binario. Se &#039;&#039;z&#039;&#039; è maggiore di una certa soglia, l&#039;output &#039;&#039;y&#039;&#039; è 1, altrimenti è 0.&lt;br /&gt;
* &#039;&#039;&#039;Output&#039;&#039;&#039;:&lt;br /&gt;
L&#039;output &#039;&#039;y&#039;&#039; è il risultato del processo di attivazione e rappresenta la risposta del perceptron agli input forniti. Questo può essere il risultato finale o può essere utilizzato come input per un altro nodo in una rete più grande.&lt;br /&gt;
&lt;br /&gt;
[[File:Perceptron.png|nessuno|miniatura|600x600px|Perceptron]]&lt;br /&gt;
&lt;br /&gt;
[[Category:architettura]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
__SHOWFACTBOX__&lt;/div&gt;</summary>
		<author><name>Ilaria Maserati</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Rete_Neurale_Artificiale_(ANN)&amp;diff=2172</id>
		<title>Rete Neurale Artificiale (ANN)</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Rete_Neurale_Artificiale_(ANN)&amp;diff=2172"/>
		<updated>2024-04-11T13:45:08Z</updated>

		<summary type="html">&lt;p&gt;Ilaria Maserati: /* Diagramma Perceptron */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Nome: [[Nome::Rete Neurale Artificiale]]&lt;br /&gt;
&lt;br /&gt;
Sigla: [[Sigla::ANN]]&lt;br /&gt;
&lt;br /&gt;
Anno Di Creazione: [[AnnoDiCreazione::1957]]&lt;br /&gt;
&lt;br /&gt;
Pubblicazione: [[Pubblicazione::The perceptron: A probabilistic model for information storage and organization in the brain]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{#set: NomeInglese=Artificial Neural Network }}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Un software basato e strutturato sulla base di principi ispirati al funzionamento del cervello umano, che ha l&#039;obiettivo di creare macchine che possano &#039;&#039;&#039;imparare&#039;&#039;&#039; come gli esseri umani. In questo senso, le reti neurali sono un campo dell&#039;[[apprendimento automatico]].&lt;br /&gt;
&lt;br /&gt;
==Diagramma Perceptron==&lt;br /&gt;
La foto mostra lo schema di un &#039;&#039;&#039;Perceptron&#039;&#039;&#039;, che è la forma più semplice di una &#039;&#039;&#039;Rete Neurale Artificiale&#039;&#039;&#039;, come definita dal suo inventore, &#039;&#039;&#039;Frank Rosenblatt&#039;&#039;&#039;. Di seguito come funziona il perceptron:&lt;br /&gt;
* &#039;&#039;&#039;Inputs&#039;&#039;&#039;:&lt;br /&gt;
Gli input (&#039;&#039;x0, x1, ..., xN&#039;&#039;) sono i segnali in entrata al perceptron. L&#039;input &#039;&#039;x0&#039;&#039; è solitamente l&#039;input di bias che aiuta a spostare il limite decisionale del perceptron per migliorare l&#039;apprendimento.&lt;br /&gt;
* &#039;&#039;&#039;Pesi (Weights)&#039;&#039;&#039;:&lt;br /&gt;
Ogni input ha un peso associato (&#039;&#039;w1, w2, ..., wN&#039;&#039;) più un peso per il bias (&#039;&#039;b&#039;&#039;). Questi pesi sono parametri adattivi che il perceptron impara durante la fase di training. Il peso &#039;&#039;b&#039;&#039; è il bias che può essere visto come il peso associato a &#039;&#039;x0&#039;&#039;.&lt;br /&gt;
* &#039;&#039;&#039;Funzione Lineare&#039;&#039;&#039;:&lt;br /&gt;
La funzione lineare è la somma ponderata degli input. Ogni input è moltiplicato per il proprio peso e poi tutti i risultati sono sommati insieme per formare il valore intermedio &#039;&#039;z&#039;&#039;. La formula è &#039;&#039;z = x0b + x1w1 + x2w2 + ... + xNwN&#039;&#039;.&lt;br /&gt;
* &#039;&#039;&#039;[[Funzione di attivazione|Funzione di attivazione]]&#039;&#039;&#039;:&lt;br /&gt;
Il valore intermedio &#039;&#039;z&#039;&#039; viene passato attraverso una funzione di attivazione (indicata con la lettera &#039;&#039;f&#039;&#039;). Nelle versioni originali del perceptron, questa era spesso una funzione a gradino, che trasforma l&#039;input in un output binario. Se &#039;&#039;z&#039;&#039; è maggiore di una certa soglia, l&#039;output &#039;&#039;y&#039;&#039; è 1, altrimenti è 0.&lt;br /&gt;
* &#039;&#039;&#039;Output&#039;&#039;&#039;:&lt;br /&gt;
L&#039;output &#039;&#039;y&#039;&#039; è il risultato del processo di attivazione e rappresenta la risposta del perceptron agli input forniti. Questo può essere il risultato finale o può essere utilizzato come input per un altro nodo in una rete più grande.&lt;br /&gt;
&lt;br /&gt;
[[File:Perceptron.png|nessuno|miniatura|600x600px|Perceptron]]&lt;br /&gt;
&lt;br /&gt;
[[Category:architettura]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
__SHOWFACTBOX__&lt;/div&gt;</summary>
		<author><name>Ilaria Maserati</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Rete_Neurale_Artificiale_(ANN)&amp;diff=2171</id>
		<title>Rete Neurale Artificiale (ANN)</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Rete_Neurale_Artificiale_(ANN)&amp;diff=2171"/>
		<updated>2024-04-11T13:44:46Z</updated>

		<summary type="html">&lt;p&gt;Ilaria Maserati: /* Diagramma Perceptron */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Nome: [[Nome::Rete Neurale Artificiale]]&lt;br /&gt;
&lt;br /&gt;
Sigla: [[Sigla::ANN]]&lt;br /&gt;
&lt;br /&gt;
Anno Di Creazione: [[AnnoDiCreazione::1957]]&lt;br /&gt;
&lt;br /&gt;
Pubblicazione: [[Pubblicazione::The perceptron: A probabilistic model for information storage and organization in the brain]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{#set: NomeInglese=Artificial Neural Network }}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Un software basato e strutturato sulla base di principi ispirati al funzionamento del cervello umano, che ha l&#039;obiettivo di creare macchine che possano &#039;&#039;&#039;imparare&#039;&#039;&#039; come gli esseri umani. In questo senso, le reti neurali sono un campo dell&#039;[[apprendimento automatico]].&lt;br /&gt;
&lt;br /&gt;
==Diagramma Perceptron==&lt;br /&gt;
La foto mostra lo schema di un &#039;&#039;&#039;Perceptron&#039;&#039;&#039;, che è la forma più semplice di una &#039;&#039;&#039;Rete Neurale Artificiale&#039;&#039;&#039;, come definita dal suo inventore, &#039;&#039;&#039;Frank Rosenblatt&#039;&#039;&#039;. Ecco come funziona il perceptron:&lt;br /&gt;
* &#039;&#039;&#039;Inputs&#039;&#039;&#039;:&lt;br /&gt;
Gli input (&#039;&#039;x0, x1, ..., xN&#039;&#039;) sono i segnali in entrata al perceptron. L&#039;input &#039;&#039;x0&#039;&#039; è solitamente l&#039;input di bias che aiuta a spostare il limite decisionale del perceptron per migliorare l&#039;apprendimento.&lt;br /&gt;
* &#039;&#039;&#039;Pesi (Weights)&#039;&#039;&#039;:&lt;br /&gt;
Ogni input ha un peso associato (&#039;&#039;w1, w2, ..., wN&#039;&#039;) più un peso per il bias (&#039;&#039;b&#039;&#039;). Questi pesi sono parametri adattivi che il perceptron impara durante la fase di training. Il peso &#039;&#039;b&#039;&#039; è il bias che può essere visto come il peso associato a &#039;&#039;x0&#039;&#039;.&lt;br /&gt;
* &#039;&#039;&#039;Funzione Lineare&#039;&#039;&#039;:&lt;br /&gt;
La funzione lineare è la somma ponderata degli input. Ogni input è moltiplicato per il proprio peso e poi tutti i risultati sono sommati insieme per formare il valore intermedio &#039;&#039;z&#039;&#039;. La formula è &#039;&#039;z = x0b + x1w1 + x2w2 + ... + xNwN&#039;&#039;.&lt;br /&gt;
* &#039;&#039;&#039;[[Funzione di attivazione|Funzione di attivazione]]&#039;&#039;&#039;:&lt;br /&gt;
Il valore intermedio &#039;&#039;z&#039;&#039; viene passato attraverso una funzione di attivazione (indicata con la lettera &#039;&#039;f&#039;&#039;). Nelle versioni originali del perceptron, questa era spesso una funzione a gradino, che trasforma l&#039;input in un output binario. Se &#039;&#039;z&#039;&#039; è maggiore di una certa soglia, l&#039;output &#039;&#039;y&#039;&#039; è 1, altrimenti è 0.&lt;br /&gt;
* &#039;&#039;&#039;Output&#039;&#039;&#039;:&lt;br /&gt;
L&#039;output &#039;&#039;y&#039;&#039; è il risultato del processo di attivazione e rappresenta la risposta del perceptron agli input forniti. Questo può essere il risultato finale o può essere utilizzato come input per un altro nodo in una rete più grande.&lt;br /&gt;
&lt;br /&gt;
[[File:Perceptron.png|nessuno|miniatura|600x600px|Perceptron]]&lt;br /&gt;
&lt;br /&gt;
[[Category:architettura]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
__SHOWFACTBOX__&lt;/div&gt;</summary>
		<author><name>Ilaria Maserati</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Rete_Neurale_Artificiale_(ANN)&amp;diff=2169</id>
		<title>Rete Neurale Artificiale (ANN)</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Rete_Neurale_Artificiale_(ANN)&amp;diff=2169"/>
		<updated>2024-04-11T13:44:16Z</updated>

		<summary type="html">&lt;p&gt;Ilaria Maserati: /* Diagramma */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Nome: [[Nome::Rete Neurale Artificiale]]&lt;br /&gt;
&lt;br /&gt;
Sigla: [[Sigla::ANN]]&lt;br /&gt;
&lt;br /&gt;
Anno Di Creazione: [[AnnoDiCreazione::1957]]&lt;br /&gt;
&lt;br /&gt;
Pubblicazione: [[Pubblicazione::The perceptron: A probabilistic model for information storage and organization in the brain]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{#set: NomeInglese=Artificial Neural Network }}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Un software basato e strutturato sulla base di principi ispirati al funzionamento del cervello umano, che ha l&#039;obiettivo di creare macchine che possano &#039;&#039;&#039;imparare&#039;&#039;&#039; come gli esseri umani. In questo senso, le reti neurali sono un campo dell&#039;[[apprendimento automatico]].&lt;br /&gt;
&lt;br /&gt;
==Diagramma Perceptron==&lt;br /&gt;
La foto mostra lo schema di un &#039;&#039;&#039;Perceptron&#039;&#039;&#039;, che è la forma più semplice di una &#039;&#039;&#039;Rete Neurale Artificiale&#039;&#039;&#039;, come definita dal suo inventore, &#039;&#039;&#039;Frank Rosenblatt&#039;&#039;&#039;. Ecco come funziona il perceptron seguendo lo schema fornito:&lt;br /&gt;
* &#039;&#039;&#039;Inputs&#039;&#039;&#039;:&lt;br /&gt;
Gli input (&#039;&#039;x0, x1, ..., xN&#039;&#039;) sono i segnali in entrata al perceptron. L&#039;input &#039;&#039;x0&#039;&#039; è solitamente l&#039;input di bias che aiuta a spostare il limite decisionale del perceptron per migliorare l&#039;apprendimento.&lt;br /&gt;
* &#039;&#039;&#039;Pesi (Weights)&#039;&#039;&#039;:&lt;br /&gt;
Ogni input ha un peso associato (&#039;&#039;w1, w2, ..., wN&#039;&#039;) più un peso per il bias (&#039;&#039;b&#039;&#039;). Questi pesi sono parametri adattivi che il perceptron impara durante la fase di training. Il peso &#039;&#039;b&#039;&#039; è il bias che può essere visto come il peso associato a &#039;&#039;x0&#039;&#039;.&lt;br /&gt;
* &#039;&#039;&#039;Funzione Lineare&#039;&#039;&#039;:&lt;br /&gt;
La funzione lineare è la somma ponderata degli input. Ogni input è moltiplicato per il proprio peso e poi tutti i risultati sono sommati insieme per formare il valore intermedio &#039;&#039;z&#039;&#039;. La formula è &#039;&#039;z = x0b + x1w1 + x2w2 + ... + xNwN&#039;&#039;.&lt;br /&gt;
* &#039;&#039;&#039;[[Funzione di attivazione|Funzione di attivazione]]&#039;&#039;&#039;:&lt;br /&gt;
Il valore intermedio &#039;&#039;z&#039;&#039; viene passato attraverso una funzione di attivazione (indicata con la lettera &#039;&#039;f&#039;&#039;). Nelle versioni originali del perceptron, questa era spesso una funzione a gradino, che trasforma l&#039;input in un output binario. Se &#039;&#039;z&#039;&#039; è maggiore di una certa soglia, l&#039;output &#039;&#039;y&#039;&#039; è 1, altrimenti è 0.&lt;br /&gt;
* &#039;&#039;&#039;Output&#039;&#039;&#039;:&lt;br /&gt;
L&#039;output &#039;&#039;y&#039;&#039; è il risultato del processo di attivazione e rappresenta la risposta del perceptron agli input forniti. Questo può essere il risultato finale o può essere utilizzato come input per un altro nodo in una rete più grande.&lt;br /&gt;
&lt;br /&gt;
[[File:Perceptron.png|nessuno|miniatura|600x600px|Perceptron]]&lt;br /&gt;
&lt;br /&gt;
[[Category:architettura]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
__SHOWFACTBOX__&lt;/div&gt;</summary>
		<author><name>Ilaria Maserati</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Rete_Neurale_Artificiale_(ANN)&amp;diff=2164</id>
		<title>Rete Neurale Artificiale (ANN)</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Rete_Neurale_Artificiale_(ANN)&amp;diff=2164"/>
		<updated>2024-04-11T13:41:29Z</updated>

		<summary type="html">&lt;p&gt;Ilaria Maserati: /* Diagramma */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Nome: [[Nome::Rete Neurale Artificiale]]&lt;br /&gt;
&lt;br /&gt;
Sigla: [[Sigla::ANN]]&lt;br /&gt;
&lt;br /&gt;
Anno Di Creazione: [[AnnoDiCreazione::1957]]&lt;br /&gt;
&lt;br /&gt;
Pubblicazione: [[Pubblicazione::The perceptron: A probabilistic model for information storage and organization in the brain]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{#set: NomeInglese=Artificial Neural Network }}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Un software basato e strutturato sulla base di principi ispirati al funzionamento del cervello umano, che ha l&#039;obiettivo di creare macchine che possano &#039;&#039;&#039;imparare&#039;&#039;&#039; come gli esseri umani. In questo senso, le reti neurali sono un campo dell&#039;[[apprendimento automatico]].&lt;br /&gt;
&lt;br /&gt;
==Diagramma==&lt;br /&gt;
La foto mostra lo schema di un &#039;&#039;&#039;Perceptron&#039;&#039;&#039;, che è la forma più semplice di una &#039;&#039;&#039;Rete Neurale Artificiale&#039;&#039;&#039;, come definita dal suo inventore, &#039;&#039;&#039;Frank Rosenblatt&#039;&#039;&#039;. Ecco come funziona il perceptron seguendo lo schema fornito:&lt;br /&gt;
* &#039;&#039;&#039;Inputs&#039;&#039;&#039;:&lt;br /&gt;
Gli input (&#039;&#039;x0, x1, ..., xN&#039;&#039;) sono i segnali in entrata al perceptron. L&#039;input &#039;&#039;x0&#039;&#039; è solitamente l&#039;input di bias che aiuta a spostare il limite decisionale del perceptron per migliorare l&#039;apprendimento.&lt;br /&gt;
* &#039;&#039;&#039;Pesi (Weights)&#039;&#039;&#039;:&lt;br /&gt;
Ogni input ha un peso associato (&#039;&#039;w1, w2, ..., wN&#039;&#039;) più un peso per il bias (&#039;&#039;b&#039;&#039;). Questi pesi sono parametri adattivi che il perceptron impara durante la fase di training. Il peso &#039;&#039;b&#039;&#039; è il bias che può essere visto come il peso associato a &#039;&#039;x0&#039;&#039;.&lt;br /&gt;
* &#039;&#039;&#039;Funzione Lineare&#039;&#039;&#039;:&lt;br /&gt;
La funzione lineare è la somma ponderata degli input. Ogni input è moltiplicato per il proprio peso e poi tutti i risultati sono sommati insieme per formare il valore intermedio &#039;&#039;z&#039;&#039;. La formula è &#039;&#039;z = x0b + x1w1 + x2w2 + ... + xNwN&#039;&#039;.&lt;br /&gt;
* &#039;&#039;&#039;[[Funzione di attivazione|Funzione di attivazione]]&#039;&#039;&#039;:&lt;br /&gt;
Il valore intermedio &#039;&#039;z&#039;&#039; viene passato attraverso una funzione di attivazione (indicata con la lettera &#039;&#039;f&#039;&#039;). Nelle versioni originali del perceptron, questa era spesso una funzione a gradino, che trasforma l&#039;input in un output binario. Se &#039;&#039;z&#039;&#039; è maggiore di una certa soglia, l&#039;output &#039;&#039;y&#039;&#039; è 1, altrimenti è 0.&lt;br /&gt;
* &#039;&#039;&#039;Output&#039;&#039;&#039;:&lt;br /&gt;
L&#039;output &#039;&#039;y&#039;&#039; è il risultato del processo di attivazione e rappresenta la risposta del perceptron agli input forniti. Questo può essere il risultato finale o può essere utilizzato come input per un altro nodo in una rete più grande.&lt;br /&gt;
&lt;br /&gt;
[[File:Perceptron.png|nessuno|miniatura|600x600px|Perceptron]]&lt;br /&gt;
&lt;br /&gt;
[[Category:architettura]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
__SHOWFACTBOX__&lt;/div&gt;</summary>
		<author><name>Ilaria Maserati</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Rete_Neurale_Artificiale_(ANN)&amp;diff=2162</id>
		<title>Rete Neurale Artificiale (ANN)</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Rete_Neurale_Artificiale_(ANN)&amp;diff=2162"/>
		<updated>2024-04-11T13:39:26Z</updated>

		<summary type="html">&lt;p&gt;Ilaria Maserati: /* Diagramma */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Nome: [[Nome::Rete Neurale Artificiale]]&lt;br /&gt;
&lt;br /&gt;
Sigla: [[Sigla::ANN]]&lt;br /&gt;
&lt;br /&gt;
Anno Di Creazione: [[AnnoDiCreazione::1957]]&lt;br /&gt;
&lt;br /&gt;
Pubblicazione: [[Pubblicazione::The perceptron: A probabilistic model for information storage and organization in the brain]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{#set: NomeInglese=Artificial Neural Network }}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Un software basato e strutturato sulla base di principi ispirati al funzionamento del cervello umano, che ha l&#039;obiettivo di creare macchine che possano &#039;&#039;&#039;imparare&#039;&#039;&#039; come gli esseri umani. In questo senso, le reti neurali sono un campo dell&#039;[[apprendimento automatico]].&lt;br /&gt;
&lt;br /&gt;
==Diagramma==&lt;br /&gt;
La foto mostra lo schema di un &#039;&#039;&#039;Perceptron&#039;&#039;&#039;, che è la forma più semplice di una &#039;&#039;&#039;rete neurale artificiale&#039;&#039;&#039;, come definita dal suo inventore, &#039;&#039;&#039;Frank Rosenblatt&#039;&#039;&#039;. Ecco come funziona il perceptron seguendo lo schema fornito:&lt;br /&gt;
* &#039;&#039;&#039;Inputs&#039;&#039;&#039;:&lt;br /&gt;
Gli input (&#039;&#039;x0, x1, ..., xN&#039;&#039;) sono i segnali in entrata al perceptron. L&#039;input &#039;&#039;x0&#039;&#039; è solitamente l&#039;input di bias che aiuta a spostare il limite decisionale del perceptron per migliorare l&#039;apprendimento.&lt;br /&gt;
* &#039;&#039;&#039;Pesi (Weights)&#039;&#039;&#039;:&lt;br /&gt;
Ogni input ha un peso associato (&#039;&#039;w1, w2, ..., wN&#039;&#039;) più un peso per il bias (&#039;&#039;b&#039;&#039;). Questi pesi sono parametri adattivi che il perceptron impara durante la fase di training. Il peso &#039;&#039;b&#039;&#039; è il bias che può essere visto come il peso associato a &#039;&#039;x0&#039;&#039;.&lt;br /&gt;
* &#039;&#039;&#039;Funzione Lineare&#039;&#039;&#039;:&lt;br /&gt;
La funzione lineare è la somma ponderata degli input. Ogni input è moltiplicato per il proprio peso e poi tutti i risultati sono sommati insieme per formare il valore intermedio &#039;&#039;z&#039;&#039;. La formula è &#039;&#039;z = x0b + x1w1 + x2w2 + ... + xNwN&#039;&#039;.&lt;br /&gt;
* &#039;&#039;&#039;[[Funzione di attivazione|Funzione di attivazione]]&#039;&#039;&#039;:&lt;br /&gt;
Il valore intermedio &#039;&#039;z&#039;&#039; viene passato attraverso una funzione di attivazione (indicata con la lettera &#039;&#039;f&#039;&#039;). Nelle versioni originali del perceptron, questa era spesso una funzione a gradino, che trasforma l&#039;input in un output binario. Se &#039;&#039;z&#039;&#039; è maggiore di una certa soglia, l&#039;output &#039;&#039;y&#039;&#039; è 1, altrimenti è 0.&lt;br /&gt;
* &#039;&#039;&#039;Output&#039;&#039;&#039;:&lt;br /&gt;
L&#039;output &#039;&#039;y&#039;&#039; è il risultato del processo di attivazione e rappresenta la risposta del perceptron agli input forniti. Questo può essere il risultato finale o può essere utilizzato come input per un altro nodo in una rete più grande.&lt;br /&gt;
&lt;br /&gt;
[[File:Perceptron.png|nessuno|miniatura|600x600px|Perceptron]]&lt;br /&gt;
&lt;br /&gt;
[[Category:architettura]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
__SHOWFACTBOX__&lt;/div&gt;</summary>
		<author><name>Ilaria Maserati</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Rete_Neurale_Artificiale_(ANN)&amp;diff=2160</id>
		<title>Rete Neurale Artificiale (ANN)</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Rete_Neurale_Artificiale_(ANN)&amp;diff=2160"/>
		<updated>2024-04-11T13:37:54Z</updated>

		<summary type="html">&lt;p&gt;Ilaria Maserati: /* Diagramma */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Nome: [[Nome::Rete Neurale Artificiale]]&lt;br /&gt;
&lt;br /&gt;
Sigla: [[Sigla::ANN]]&lt;br /&gt;
&lt;br /&gt;
Anno Di Creazione: [[AnnoDiCreazione::1957]]&lt;br /&gt;
&lt;br /&gt;
Pubblicazione: [[Pubblicazione::The perceptron: A probabilistic model for information storage and organization in the brain]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{#set: NomeInglese=Artificial Neural Network }}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Un software basato e strutturato sulla base di principi ispirati al funzionamento del cervello umano, che ha l&#039;obiettivo di creare macchine che possano &#039;&#039;&#039;imparare&#039;&#039;&#039; come gli esseri umani. In questo senso, le reti neurali sono un campo dell&#039;[[apprendimento automatico]].&lt;br /&gt;
&lt;br /&gt;
==Diagramma==&lt;br /&gt;
La foto mostra lo schema di un &#039;&#039;&#039;Perceptron&#039;&#039;&#039;, che è la forma più semplice di una &#039;&#039;&#039;rete neurale artificiale&#039;&#039;&#039;, come definita dal suo inventore, &#039;&#039;&#039;Frank Rosenblatt&#039;&#039;&#039;. Ecco come funziona il perceptron seguendo lo schema fornito:&lt;br /&gt;
* &#039;&#039;&#039;Inputs&#039;&#039;&#039;:&lt;br /&gt;
Gli input (&#039;&#039;x0, x1, ..., xN&#039;&#039;) sono i segnali in entrata al perceptron. L&#039;input &#039;&#039;x0&#039;&#039; è solitamente l&#039;input di bias che aiuta a spostare il limite decisionale del perceptron per migliorare l&#039;apprendimento.&lt;br /&gt;
* &#039;&#039;&#039;Pesi (Weights)&#039;&#039;&#039;:&lt;br /&gt;
Ogni input ha un peso associato (&#039;&#039;w1, w2, ..., wN&#039;&#039;) più un peso per il bias (&#039;&#039;b&#039;&#039;). Questi pesi sono parametri adattivi che il perceptron impara durante la fase di training. Il peso &#039;&#039;b&#039;&#039; è il bias che può essere visto come il peso associato a &#039;&#039;x0&#039;&#039;.&lt;br /&gt;
* &#039;&#039;&#039;Funzione Lineare&#039;&#039;&#039;:&lt;br /&gt;
La funzione lineare è la somma ponderata degli input. Ogni input è moltiplicato per il proprio peso e poi tutti i risultati sono sommati insieme per formare il valore intermedio &#039;&#039;z&#039;&#039;. La formula è &#039;&#039;z = x0b + x1w1 + x2w2 + ... + xNwN&#039;&#039;.&lt;br /&gt;
* &#039;&#039;&#039;[[Funzione di Attivazione|Funzione di attivazione]]&#039;&#039;&#039;:&lt;br /&gt;
Il valore intermedio &#039;&#039;z&#039;&#039; viene passato attraverso una funzione di attivazione (indicata con la lettera &#039;&#039;f&#039;&#039;). Nelle versioni originali del perceptron, questa era spesso una funzione a gradino, che trasforma l&#039;input in un output binario. Se &#039;&#039;z&#039;&#039; è maggiore di una certa soglia, l&#039;output &#039;&#039;y&#039;&#039; è 1, altrimenti è 0.&lt;br /&gt;
* &#039;&#039;&#039;Output&#039;&#039;&#039;:&lt;br /&gt;
L&#039;output &#039;&#039;y&#039;&#039; è il risultato del processo di attivazione e rappresenta la risposta del perceptron agli input forniti. Questo può essere il risultato finale o può essere utilizzato come input per un altro nodo in una rete più grande.&lt;br /&gt;
&lt;br /&gt;
[[File:Perceptron.png|nessuno|miniatura|600x600px|Perceptron]]&lt;br /&gt;
&lt;br /&gt;
[[Category:architettura]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
__SHOWFACTBOX__&lt;/div&gt;</summary>
		<author><name>Ilaria Maserati</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Rete_Neurale_Artificiale_(ANN)&amp;diff=2159</id>
		<title>Rete Neurale Artificiale (ANN)</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Rete_Neurale_Artificiale_(ANN)&amp;diff=2159"/>
		<updated>2024-04-11T13:36:37Z</updated>

		<summary type="html">&lt;p&gt;Ilaria Maserati: /* Diagramma */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Nome: [[Nome::Rete Neurale Artificiale]]&lt;br /&gt;
&lt;br /&gt;
Sigla: [[Sigla::ANN]]&lt;br /&gt;
&lt;br /&gt;
Anno Di Creazione: [[AnnoDiCreazione::1957]]&lt;br /&gt;
&lt;br /&gt;
Pubblicazione: [[Pubblicazione::The perceptron: A probabilistic model for information storage and organization in the brain]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{#set: NomeInglese=Artificial Neural Network }}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Un software basato e strutturato sulla base di principi ispirati al funzionamento del cervello umano, che ha l&#039;obiettivo di creare macchine che possano &#039;&#039;&#039;imparare&#039;&#039;&#039; come gli esseri umani. In questo senso, le reti neurali sono un campo dell&#039;[[apprendimento automatico]].&lt;br /&gt;
&lt;br /&gt;
==Diagramma==&lt;br /&gt;
La foto mostra lo schema di un &#039;&#039;&#039;Perceptron&#039;&#039;&#039;, che è la forma più semplice di una &#039;&#039;&#039;rete neurale artificiale&#039;&#039;&#039;, come definita dal suo inventore, &#039;&#039;&#039;Frank Rosenblatt&#039;&#039;&#039;. Ecco come funziona il perceptron seguendo lo schema fornito:&lt;br /&gt;
* &#039;&#039;&#039;Inputs&#039;&#039;&#039;:&lt;br /&gt;
Gli input (&#039;&#039;x0, x1, ..., xN&#039;&#039;) sono i segnali in entrata al perceptron. L&#039;input &#039;&#039;x0&#039;&#039; è solitamente l&#039;input di bias che aiuta a spostare il limite decisionale del perceptron per migliorare l&#039;apprendimento.&lt;br /&gt;
* &#039;&#039;&#039;Pesi (Weights)&#039;&#039;&#039;:&lt;br /&gt;
Ogni input ha un peso associato (&#039;&#039;w1, w2, ..., wN&#039;&#039;) più un peso per il bias (&#039;&#039;b&#039;&#039;). Questi pesi sono parametri adattivi che il perceptron impara durante la fase di training. Il peso &#039;&#039;b&#039;&#039; è il bias che può essere visto come il peso associato a &#039;&#039;x0&#039;&#039;.&lt;br /&gt;
* &#039;&#039;&#039;Funzione Lineare&#039;&#039;&#039;:&lt;br /&gt;
La funzione lineare è la somma ponderata degli input. Ogni input è moltiplicato per il proprio peso e poi tutti i risultati sono sommati insieme per formare il valore intermedio &#039;&#039;z&#039;&#039;. La formula è &#039;&#039;z = x0b + x1w1 + x2w2 + ... + xNwN&#039;&#039;.&lt;br /&gt;
* &#039;&#039;&#039;Funzione di Attivazione&#039;&#039;&#039;:&lt;br /&gt;
Il valore intermedio &#039;&#039;z&#039;&#039; viene passato attraverso una funzione di attivazione (indicata con la lettera &#039;&#039;f&#039;&#039;). Nelle versioni originali del perceptron, questa era spesso una funzione a gradino, che trasforma l&#039;input in un output binario. Se &#039;&#039;z&#039;&#039; è maggiore di una certa soglia, l&#039;output &#039;&#039;y&#039;&#039; è 1, altrimenti è 0.&lt;br /&gt;
* &#039;&#039;&#039;Output&#039;&#039;&#039;:&lt;br /&gt;
L&#039;output &#039;&#039;y&#039;&#039; è il risultato del processo di attivazione e rappresenta la risposta del perceptron agli input forniti. Questo può essere il risultato finale o può essere utilizzato come input per un altro nodo in una rete più grande.&lt;br /&gt;
&lt;br /&gt;
[[File:Perceptron.png|nessuno|miniatura|600x600px|Perceptron]]&lt;br /&gt;
&lt;br /&gt;
[[Category:architettura]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
__SHOWFACTBOX__&lt;/div&gt;</summary>
		<author><name>Ilaria Maserati</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Rete_Neurale_Artificiale_(ANN)&amp;diff=2158</id>
		<title>Rete Neurale Artificiale (ANN)</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Rete_Neurale_Artificiale_(ANN)&amp;diff=2158"/>
		<updated>2024-04-11T13:35:59Z</updated>

		<summary type="html">&lt;p&gt;Ilaria Maserati: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Nome: [[Nome::Rete Neurale Artificiale]]&lt;br /&gt;
&lt;br /&gt;
Sigla: [[Sigla::ANN]]&lt;br /&gt;
&lt;br /&gt;
Anno Di Creazione: [[AnnoDiCreazione::1957]]&lt;br /&gt;
&lt;br /&gt;
Pubblicazione: [[Pubblicazione::The perceptron: A probabilistic model for information storage and organization in the brain]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{#set: NomeInglese=Artificial Neural Network }}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Un software basato e strutturato sulla base di principi ispirati al funzionamento del cervello umano, che ha l&#039;obiettivo di creare macchine che possano &#039;&#039;&#039;imparare&#039;&#039;&#039; come gli esseri umani. In questo senso, le reti neurali sono un campo dell&#039;[[apprendimento automatico]].&lt;br /&gt;
&lt;br /&gt;
==Diagramma==&lt;br /&gt;
La foto mostra lo schema di un &#039;&#039;&#039;Perceptron&#039;&#039;&#039;, che è la forma più semplice di una &#039;&#039;&#039;rete neurale artificiale&#039;&#039;&#039;, come definita dal suo inventore, &#039;&#039;&#039;Frank Rosenblatt&#039;&#039;&#039;. Ecco come funziona il perceptron seguendo lo schema fornito:&lt;br /&gt;
* &#039;&#039;&#039;Inputs&#039;&#039;&#039;:&lt;br /&gt;
Gli input (&#039;&#039;x0, x1, ..., xN&#039;&#039;) sono i segnali in entrata al perceptron. L&#039;input &#039;&#039;x0&#039;&#039; è solitamente l&#039;input di bias che aiuta a spostare il limite decisionale del perceptron per migliorare l&#039;apprendimento.&lt;br /&gt;
* &#039;&#039;&#039;Pesi (Weights)&#039;&#039;&#039;:&lt;br /&gt;
Ogni input ha un peso associato (&#039;&#039;w1, w2, ..., wN&#039;&#039;) più un peso per il bias (&#039;&#039;b&#039;&#039;). Questi pesi sono parametri adattivi che il perceptron impara durante la fase di training. Il peso &#039;&#039;b&#039;&#039; è il bias che può essere visto come il peso associato a &#039;&#039;x0&#039;&#039;.&lt;br /&gt;
* &#039;&#039;&#039;Combinatore lineare (Funzione Lineare)&#039;&#039;&#039;:&lt;br /&gt;
La combinazione lineare è la somma ponderata degli input. Ogni input è moltiplicato per il proprio peso e poi tutti i risultati sono sommati insieme per formare il valore intermedio &#039;&#039;z&#039;&#039;. La formula è &#039;&#039;z = x0b + x1w1 + x2w2 + ... + xNwN&#039;&#039;.&lt;br /&gt;
* &#039;&#039;&#039;Funzione di Attivazione&#039;&#039;&#039;:&lt;br /&gt;
Il valore intermedio &#039;&#039;z&#039;&#039; viene passato attraverso una funzione di attivazione (indicata con la lettera &#039;&#039;f&#039;&#039;). Nelle versioni originali del perceptron, questa era spesso una funzione a gradino, che trasforma l&#039;input in un output binario. Se &#039;&#039;z&#039;&#039; è maggiore di una certa soglia, l&#039;output &#039;&#039;y&#039;&#039; è 1, altrimenti è 0.&lt;br /&gt;
* &#039;&#039;&#039;Output&#039;&#039;&#039;:&lt;br /&gt;
L&#039;output &#039;&#039;y&#039;&#039; è il risultato del processo di attivazione e rappresenta la risposta del perceptron agli input forniti. Questo può essere il risultato finale o può essere utilizzato come input per un altro nodo in una rete più grande.&lt;br /&gt;
&lt;br /&gt;
[[File:Perceptron.png|nessuno|miniatura|600x600px|Perceptron]]&lt;br /&gt;
&lt;br /&gt;
[[Category:architettura]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
__SHOWFACTBOX__&lt;/div&gt;</summary>
		<author><name>Ilaria Maserati</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Rete_Neurale_Artificiale_(ANN)&amp;diff=2156</id>
		<title>Rete Neurale Artificiale (ANN)</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Rete_Neurale_Artificiale_(ANN)&amp;diff=2156"/>
		<updated>2024-04-11T13:34:50Z</updated>

		<summary type="html">&lt;p&gt;Ilaria Maserati: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Nome: [[Nome::Rete Neurale Artificiale]]&lt;br /&gt;
&lt;br /&gt;
Sigla: [[Sigla::ANN]]&lt;br /&gt;
&lt;br /&gt;
Anno Di Creazione: [[AnnoDiCreazione::1957]]&lt;br /&gt;
&lt;br /&gt;
Pubblicazione: [[Pubblicazione::The perceptron: A probabilistic model for information storage and organization in the brain]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{#set: NomeInglese=Artificial Neural Network }}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Un software basato e strutturato sulla base di principi ispirati al funzionamento del cervello umano, che ha l&#039;obiettivo di creare macchine che possano &#039;&#039;&#039;imparare&#039;&#039;&#039; come gli esseri umani. In questo senso, le reti neurali sono un campo dell&#039;[[apprendimento automatico]].&lt;br /&gt;
&lt;br /&gt;
La foto mostra lo schema di un &#039;&#039;&#039;perceptron&#039;&#039;&#039;, che è la forma più semplice di una &#039;&#039;&#039;rete neurale artificiale&#039;&#039;&#039;, come definita dal suo inventore, Frank Rosenblatt. Ecco come funziona il perceptron seguendo lo schema fornito:&lt;br /&gt;
* &#039;&#039;&#039;Inputs&#039;&#039;&#039;:&lt;br /&gt;
Gli input (&#039;&#039;x0, x1, ..., xN&#039;&#039;) sono i segnali in entrata al perceptron. L&#039;input &#039;&#039;x0&#039;&#039; è solitamente l&#039;input di bias che aiuta a spostare il limite decisionale del perceptron per migliorare l&#039;apprendimento.&lt;br /&gt;
* &#039;&#039;&#039;Pesi (Weights)&#039;&#039;&#039;:&lt;br /&gt;
Ogni input ha un peso associato (&#039;&#039;w1, w2, ..., wN&#039;&#039;) più un peso per il bias (&#039;&#039;b&#039;&#039;). Questi pesi sono parametri adattivi che il perceptron impara durante la fase di training. Il peso &#039;&#039;b&#039;&#039; è il bias che può essere visto come il peso associato a &#039;&#039;x0&#039;&#039;.&lt;br /&gt;
* &#039;&#039;&#039;Combinatore lineare (Funzione Lineare)&#039;&#039;&#039;:&lt;br /&gt;
La combinazione lineare è la somma ponderata degli input. Ogni input è moltiplicato per il proprio peso e poi tutti i risultati sono sommati insieme per formare il valore intermedio &#039;&#039;z&#039;&#039;. La formula è &#039;&#039;z = x0b + x1w1 + x2w2 + ... + xNwN&#039;&#039;.&lt;br /&gt;
* &#039;&#039;&#039;Funzione di Attivazione&#039;&#039;&#039;:&lt;br /&gt;
Il valore intermedio &#039;&#039;z&#039;&#039; viene passato attraverso una funzione di attivazione (indicata con la lettera &#039;&#039;f&#039;&#039;). Nelle versioni originali del perceptron, questa era spesso una funzione a gradino, che trasforma l&#039;input in un output binario. Se &#039;&#039;z&#039;&#039; è maggiore di una certa soglia, l&#039;output &#039;&#039;y&#039;&#039; è 1, altrimenti è 0.&lt;br /&gt;
* &#039;&#039;&#039;Output&#039;&#039;&#039;:&lt;br /&gt;
L&#039;output &#039;&#039;y&#039;&#039; è il risultato del processo di attivazione e rappresenta la risposta del perceptron agli input forniti. Questo può essere il risultato finale o può essere utilizzato come input per un altro nodo in una rete più grande.&lt;br /&gt;
&lt;br /&gt;
[[File:Perceptron.png|nessuno|miniatura|600x600px|Perceptron]]&lt;br /&gt;
&lt;br /&gt;
[[Category:architettura]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
__SHOWFACTBOX__&lt;/div&gt;</summary>
		<author><name>Ilaria Maserati</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Rete_Neurale_Artificiale_(ANN)&amp;diff=2152</id>
		<title>Rete Neurale Artificiale (ANN)</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Rete_Neurale_Artificiale_(ANN)&amp;diff=2152"/>
		<updated>2024-04-11T13:29:30Z</updated>

		<summary type="html">&lt;p&gt;Ilaria Maserati: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Nome: [[Nome::Rete Neurale Artificiale]]&lt;br /&gt;
&lt;br /&gt;
Sigla: [[Sigla::ANN]]&lt;br /&gt;
&lt;br /&gt;
Anno Di Creazione: [[AnnoDiCreazione::1957]]&lt;br /&gt;
&lt;br /&gt;
Pubblicazione: [[Pubblicazione::The perceptron: A probabilistic model for information storage and organization in the brain]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{#set: NomeInglese=Artificial Neural Network }}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Un software basato e strutturato sulla base di principi ispirati al funzionamento del cervello umano, che ha l&#039;obiettivo di creare macchine che possano &#039;&#039;&#039;imparare&#039;&#039;&#039; come gli esseri umani. In questo senso, le reti neurali sono un campo dell&#039;[[apprendimento automatico]].&lt;br /&gt;
&lt;br /&gt;
La foto mostra lo schema di un &#039;&#039;&#039;perceptron&#039;&#039;&#039;, che è la forma più semplice di una &#039;&#039;&#039;rete neurale artificiale&#039;&#039;&#039;, come definita dal suo inventore, &#039;&#039;&#039;Frank Rosenblatt&#039;&#039;&#039;. Ecco come funziona il perceptron seguendo lo schema fornito:&lt;br /&gt;
# &#039;&#039;&#039;Inputs&#039;&#039;&#039;:&lt;br /&gt;
Gli input (&#039;&#039;x0, x1, ..., xN&#039;&#039;) sono i segnali in entrata al perceptron. L&#039;input &#039;&#039;x0&#039;&#039; è solitamente l&#039;input di bias che aiuta a spostare il limite decisionale del perceptron per migliorare l&#039;apprendimento.&lt;br /&gt;
# &#039;&#039;&#039;Pesi (Weights)&#039;&#039;&#039;:&lt;br /&gt;
Ogni input ha un peso associato (&#039;&#039;w1, w2, ..., wN&#039;&#039;) più un peso per il bias (&#039;&#039;b&#039;&#039;). Questi pesi sono parametri adattivi che il perceptron impara durante la fase di training. Il peso &#039;&#039;b&#039;&#039; è il bias che può essere visto come il peso associato a &#039;&#039;x0&#039;&#039;.&lt;br /&gt;
# &#039;&#039;&#039;Combinatore lineare (Funzione Lineare)&#039;&#039;&#039;:&lt;br /&gt;
La combinazione lineare è la somma ponderata degli input. Ogni input è moltiplicato per il proprio peso e poi tutti i risultati sono sommati insieme per formare il valore intermedio &#039;&#039;z&#039;&#039;. La formula è &#039;&#039;z = x0b + x1w1 + x2w2 + ... + xNwN&#039;&#039;.&lt;br /&gt;
# &#039;&#039;&#039;[[Funzione di Attivazione|Funzione di attivazione]]&#039;&#039;&#039;:&lt;br /&gt;
Il valore intermedio &#039;&#039;z&#039;&#039; viene passato attraverso una funzione di attivazione (indicata con la lettera &#039;&#039;f&#039;&#039;). Nelle versioni originali del perceptron, questa era spesso una funzione a gradino, che trasforma l&#039;input in un output binario. Se &#039;&#039;z&#039;&#039; è maggiore di una certa soglia, l&#039;output &#039;&#039;y&#039;&#039; è 1, altrimenti è 0.&lt;br /&gt;
# &#039;&#039;&#039;Output&#039;&#039;&#039;:&lt;br /&gt;
L&#039;output &#039;&#039;y&#039;&#039; è il risultato del processo di attivazione e rappresenta la risposta del perceptron agli input forniti. Questo può essere il risultato finale o può essere utilizzato come input per un altro nodo in una rete più grande.&lt;br /&gt;
&lt;br /&gt;
[[File:Perceptron.png|nessuno|miniatura|600x600px|Perceptron]]&lt;br /&gt;
&lt;br /&gt;
[[Category:architettura]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
__SHOWFACTBOX__&lt;/div&gt;</summary>
		<author><name>Ilaria Maserati</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Modello_di_Diffusione_Latente_(LDM)&amp;diff=2032</id>
		<title>Modello di Diffusione Latente (LDM)</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Modello_di_Diffusione_Latente_(LDM)&amp;diff=2032"/>
		<updated>2024-04-10T14:14:35Z</updated>

		<summary type="html">&lt;p&gt;Ilaria Maserati: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
Nome: [[Nome::Modello di Diffusione Latente]]&lt;br /&gt;
&lt;br /&gt;
Nome Inglese: [[NomeInglese::Latent Diffusion Model]]&lt;br /&gt;
&lt;br /&gt;
Sigla: [[Sigla::LDM]]&lt;br /&gt;
&lt;br /&gt;
Anno Di Creazione: [[AnnoDiCreazione::2021]]&lt;br /&gt;
&lt;br /&gt;
Pubblicazione: [[Pubblicazione::The Theory of Stochastic Processes, with Particular Reference to Applications]]; [[Pubblicazione::Deep Unsupervised Learning using Nonequilibrium Thermodynamics]]; [[Pubblicazione::Diffusion Models Beat GANs on Image Synthesis]]; [[Pubblicazione::Classifier-Free Diffusion Guidance]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Classe di modelli di rete neurale utilizzate per la generazione di immagini e video&lt;br /&gt;
&lt;br /&gt;
[[File:Diffusion Models.png|miniatura|nessuno|600x600px|Diffusion Models]]&lt;br /&gt;
=== Links ===&lt;br /&gt;
[https://www.semanticscholar.org/paper/On-the-Theory-of-Stochastic-Processes%2C-with-to-Feller/4cdcf495232f3ec44183dc74cd8eca4b44c2de64 On the Theory of Stochastic Processes, with Particular Reference to Applications (1949)]&lt;br /&gt;
[https://arxiv.org/pdf/1503.03585.pdf Deep Unsupervised Learning using Nonequilibrium Thermodynamics (2015)]&lt;br /&gt;
[https://arxiv.org/abs/2105.05233 Diffusion Models Beat GANs on Image Synthesis (2021)]&lt;br /&gt;
[https://arxiv.org/abs/2207.12598 Classifier-Free Diffusion Guidance (2022)]&lt;br /&gt;
&lt;br /&gt;
[[Category:architettura]]&lt;br /&gt;
&lt;br /&gt;
__SHOWFACTBOX__&lt;/div&gt;</summary>
		<author><name>Ilaria Maserati</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=File:Diffusion_Models.png&amp;diff=2030</id>
		<title>File:Diffusion Models.png</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=File:Diffusion_Models.png&amp;diff=2030"/>
		<updated>2024-04-10T14:13:13Z</updated>

		<summary type="html">&lt;p&gt;Ilaria Maserati: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Ilaria Maserati</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Rete_Generativa_Avversaria&amp;diff=2016</id>
		<title>Rete Generativa Avversaria</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Rete_Generativa_Avversaria&amp;diff=2016"/>
		<updated>2024-04-10T13:22:30Z</updated>

		<summary type="html">&lt;p&gt;Ilaria Maserati: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Nome: [[Nome::Rete Generativa Avversaria]]&lt;br /&gt;
&lt;br /&gt;
Nome Inglese: [[NomeInglese::Generative Adversarial Network]]&lt;br /&gt;
&lt;br /&gt;
Sigla: [[Sigla::GAN]]&lt;br /&gt;
&lt;br /&gt;
Anno Di Creazione: [[AnnoDiCreazione::2014]]&lt;br /&gt;
&lt;br /&gt;
Pubblicazione: [[Pubblicazione::Generative Adversarial Nets]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Un&#039;architettura di rete neurale generativa in cui si utilizza un processo di tipo &amp;quot;adversarial&amp;quot;, in cui vengono contemporaneamente allenati due modelli:&lt;br /&gt;
* un modello generativo G che cattura la distribuzione dei dati di training&lt;br /&gt;
* un modello discriminativo D che stima la probabilità che un campione provenga dal dataset di training piuttosto che da G&lt;br /&gt;
&lt;br /&gt;
L&#039;addestramento massimizza la probabilità che D faccia un&#039;errore di discriminazione, quindi massimizzando la &amp;quot;bravura&amp;quot; di G nel creare dei falsi realistici.&lt;br /&gt;
&lt;br /&gt;
[[File:Generativa Adversarial Network (GAN).png|miniatura|nessuno|600x600px|Generative Adversarial Networks (GAN)]]&lt;br /&gt;
&lt;br /&gt;
== Links ==&lt;br /&gt;
[https://arxiv.org/pdf/1406.2661.pdf Generative Adversarial Nets, Goodfellow et al, 2014]&lt;br /&gt;
&lt;br /&gt;
[[Category:architettura]]&lt;br /&gt;
&lt;br /&gt;
__SHOWFACTBOX__&lt;/div&gt;</summary>
		<author><name>Ilaria Maserati</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=File:Generativa_Adversarial_Network_(GAN).png&amp;diff=2015</id>
		<title>File:Generativa Adversarial Network (GAN).png</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=File:Generativa_Adversarial_Network_(GAN).png&amp;diff=2015"/>
		<updated>2024-04-10T13:22:06Z</updated>

		<summary type="html">&lt;p&gt;Ilaria Maserati: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Ilaria Maserati</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Rete_Generativa_Avversaria&amp;diff=2014</id>
		<title>Rete Generativa Avversaria</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Rete_Generativa_Avversaria&amp;diff=2014"/>
		<updated>2024-04-10T13:05:38Z</updated>

		<summary type="html">&lt;p&gt;Ilaria Maserati: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Nome: [[Nome::Rete Generativa Avversaria]]&lt;br /&gt;
&lt;br /&gt;
Nome Inglese: [[NomeInglese::Generative Adversarial Network]]&lt;br /&gt;
&lt;br /&gt;
Sigla: [[Sigla::GAN]]&lt;br /&gt;
&lt;br /&gt;
Anno Di Creazione: [[AnnoDiCreazione::2014]]&lt;br /&gt;
&lt;br /&gt;
Pubblicazione: [[Pubblicazione::Generative Adversarial Nets]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Un&#039;architettura di rete neurale generativa in cui si utilizza un processo di tipo &amp;quot;adversarial&amp;quot;, in cui vengono contemporaneamente allenati due modelli:&lt;br /&gt;
* un modello generativo G che cattura la distribuzione dei dati di training&lt;br /&gt;
* un modello discriminativo D che stima la probabilità che un campione provenga dal dataset di training piuttosto che da G&lt;br /&gt;
&lt;br /&gt;
L&#039;addestramento massimizza la probabilità che D faccia un&#039;errore di discriminazione, quindi massimizzando la &amp;quot;bravura&amp;quot; di G nel creare dei falsi realistici.&lt;br /&gt;
&lt;br /&gt;
[[File:Generative Adversarial Networks (GAN).png|miniatura|nessuno|600x600px|Generative Adversarial Networks (GAN)]]&lt;br /&gt;
&lt;br /&gt;
== Links ==&lt;br /&gt;
[https://arxiv.org/pdf/1406.2661.pdf Generative Adversarial Nets, Goodfellow et al, 2014]&lt;br /&gt;
&lt;br /&gt;
[[Category:architettura]]&lt;br /&gt;
&lt;br /&gt;
__SHOWFACTBOX__&lt;/div&gt;</summary>
		<author><name>Ilaria Maserati</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Rete_Generativa_Avversaria&amp;diff=2011</id>
		<title>Rete Generativa Avversaria</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Rete_Generativa_Avversaria&amp;diff=2011"/>
		<updated>2024-04-10T12:59:55Z</updated>

		<summary type="html">&lt;p&gt;Ilaria Maserati: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Nome: [[Nome::Rete Generativa Avversaria]]&lt;br /&gt;
&lt;br /&gt;
Nome Inglese: [[NomeInglese::Generative Adversarial Network]]&lt;br /&gt;
&lt;br /&gt;
Sigla: [[Sigla::GAN]]&lt;br /&gt;
&lt;br /&gt;
Anno Di Creazione: [[AnnoDiCreazione::2014]]&lt;br /&gt;
&lt;br /&gt;
Pubblicazione: [[Pubblicazione::Generative Adversarial Nets]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Un&#039;architettura di rete neurale generativa in cui si utilizza un processo di tipo &amp;quot;adversarial&amp;quot;, in cui vengono contemporaneamente allenati due modelli:&lt;br /&gt;
* un modello generativo G che cattura la distribuzione dei dati di training&lt;br /&gt;
* un modello discriminativo D che stima la probabilità che un campione provenga dal dataset di training piuttosto che da G&lt;br /&gt;
&lt;br /&gt;
L&#039;addestramento massimizza la probabilità che D faccia un&#039;errore di discriminazione, quindi massimizzando la &amp;quot;bravura&amp;quot; di G nel creare dei falsi realistici.&lt;br /&gt;
&lt;br /&gt;
[[File:Generative Adversarial Network (GAN).png|miniatura|nessuno|600x600px|Generative Adversarial Networks (GAN)]]&lt;br /&gt;
&lt;br /&gt;
== Links ==&lt;br /&gt;
[https://arxiv.org/pdf/1406.2661.pdf Generative Adversarial Nets, Goodfellow et al, 2014]&lt;br /&gt;
&lt;br /&gt;
[[Category:architettura]]&lt;br /&gt;
&lt;br /&gt;
__SHOWFACTBOX__&lt;/div&gt;</summary>
		<author><name>Ilaria Maserati</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Rete_Neurale_Artificiale_(ANN)&amp;diff=2004</id>
		<title>Rete Neurale Artificiale (ANN)</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Rete_Neurale_Artificiale_(ANN)&amp;diff=2004"/>
		<updated>2024-04-10T10:32:26Z</updated>

		<summary type="html">&lt;p&gt;Ilaria Maserati: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Nome: [[Nome::Rete Neurale Artificiale]]&lt;br /&gt;
&lt;br /&gt;
Sigla: [[Sigla::ANN]]&lt;br /&gt;
&lt;br /&gt;
Anno Di Creazione: [[AnnoDiCreazione::1957]]&lt;br /&gt;
&lt;br /&gt;
Pubblicazione: [[Pubblicazione::The perceptron: A probabilistic model for information storage and organization in the brain]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{#set: NomeInglese=Artificial Neural Network }}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Un software basato e strutturato sulla base di principi ispirati al funzionamento del cervello umano, che ha l&#039;obiettivo di creare macchine che possano &#039;&#039;&#039;imparare&#039;&#039;&#039; come gli esseri umani. In questo senso, le reti neurali sono un campo dell&#039;[[apprendimento automatico]].&lt;br /&gt;
&lt;br /&gt;
[[File:Perceptron.png|nessuno|miniatura|600x600px|Perceptron]]&lt;br /&gt;
&lt;br /&gt;
[[Category:architettura]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
__SHOWFACTBOX__&lt;/div&gt;</summary>
		<author><name>Ilaria Maserati</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Rete_Neurale_Artificiale_(ANN)&amp;diff=2003</id>
		<title>Rete Neurale Artificiale (ANN)</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Rete_Neurale_Artificiale_(ANN)&amp;diff=2003"/>
		<updated>2024-04-10T10:31:55Z</updated>

		<summary type="html">&lt;p&gt;Ilaria Maserati: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Nome: [[Nome::Rete Neurale Artificiale]]&lt;br /&gt;
&lt;br /&gt;
Sigla: [[Sigla::ANN]]&lt;br /&gt;
&lt;br /&gt;
Anno Di Creazione: [[AnnoDiCreazione::1957]]&lt;br /&gt;
&lt;br /&gt;
Pubblicazione: [[Pubblicazione::The perceptron: A probabilistic model for information storage and organization in the brain]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{#set: NomeInglese=Artificial Neural Network }}&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Un software basato e strutturato sulla base di principi ispirati al funzionamento del cervello umano, che ha l&#039;obiettivo di creare macchine che possano &#039;&#039;&#039;imparare&#039;&#039;&#039; come gli esseri umani. In questo senso, le reti neurali sono un campo dell&#039;[[apprendimento automatico]].&lt;br /&gt;
&lt;br /&gt;
[[File:Perceptron.png|nessuno|miniatura|600x600px|Perceptron]]&lt;br /&gt;
&lt;br /&gt;
[[Category:architettura]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
__SHOWFACTBOX__&lt;/div&gt;</summary>
		<author><name>Ilaria Maserati</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Rete_Neurale_Feed-Forward_(FNN)&amp;diff=2002</id>
		<title>Rete Neurale Feed-Forward (FNN)</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Rete_Neurale_Feed-Forward_(FNN)&amp;diff=2002"/>
		<updated>2024-04-10T10:31:25Z</updated>

		<summary type="html">&lt;p&gt;Ilaria Maserati: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Nome: [[Nome::Rete neurale con flusso in avanti]]&lt;br /&gt;
&lt;br /&gt;
Nome Inglese: [[NomeInglese::Neural Network Feed-Forward]]&lt;br /&gt;
&lt;br /&gt;
Sigla: [[Sigla::FNN]]&lt;br /&gt;
&lt;br /&gt;
Anno Di Creazione: [[AnnoDiCreazione::1957]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Nelle architetture di [[Rete Neurale Artificiale (ANN)|rete neurale]] feed-forward, che sono le prime ad essere state scoperte e implementate, il flusso di informazione va dall&#039;input all&#039;output senza feedback loop come nelle [[Rete Neurale Ricorrente (RNN)|RNN]] .&lt;br /&gt;
&lt;br /&gt;
Agiscono come dei classificatori &#039;&#039;&#039;senza stato&#039;&#039;&#039;, presupponendo il fatto che l&#039;ordine di arrivo degli input non influisca sull&#039;output.&lt;br /&gt;
&lt;br /&gt;
[[File:Multilayer Perceptron .png|nessuno|miniatura|600x600px|Multilayer Perceptron]]&lt;br /&gt;
&lt;br /&gt;
[[File:Rete Neurale Feed-Forward.png|nessuno|miniatura|600x600px|Rete Neurale Feed-Forward]]&lt;br /&gt;
&lt;br /&gt;
[[Category:architettura|nessuno|miniatura|600x600px|Multilayer Perceptron]]&lt;/div&gt;</summary>
		<author><name>Ilaria Maserati</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Rete_Neurale_Feed-Forward_(FNN)&amp;diff=1999</id>
		<title>Rete Neurale Feed-Forward (FNN)</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Rete_Neurale_Feed-Forward_(FNN)&amp;diff=1999"/>
		<updated>2024-04-10T10:12:46Z</updated>

		<summary type="html">&lt;p&gt;Ilaria Maserati: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Nome: [[Nome::Rete neurale con flusso in avanti]]&lt;br /&gt;
&lt;br /&gt;
Nome Inglese: [[NomeInglese::Neural Network Feed-Forward]]&lt;br /&gt;
&lt;br /&gt;
Sigla: [[Sigla::FNN]]&lt;br /&gt;
&lt;br /&gt;
Anno Di Creazione: [[AnnoDiCreazione::1957]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Nelle architetture di [[Rete Neurale Artificiale (ANN)|rete neurale]] feed-forward, che sono le prime ad essere state scoperte e implementate, il flusso di informazione va dall&#039;input all&#039;output senza feedback loop come nelle [[Rete Neurale Ricorrente (RNN)|RNN]] .&lt;br /&gt;
&lt;br /&gt;
Agiscono come dei classificatori &#039;&#039;&#039;senza stato&#039;&#039;&#039;, presupponendo il fatto che l&#039;ordine di arrivo degli input non influisca sull&#039;output.&lt;br /&gt;
&lt;br /&gt;
[[File:Perceptron.png|nessuno|miniatura|600x600px|Perceptron]]&lt;br /&gt;
&lt;br /&gt;
[[File:Multilayer Perceptron .png|nessuno|miniatura|600x600px|Multilayer Perceptron]]&lt;br /&gt;
&lt;br /&gt;
[[File:Rete Neurale Feed-Forward.png|nessuno|miniatura|600x600px|Rete Neurale Feed-Forward]]&lt;br /&gt;
&lt;br /&gt;
[[Category:architettura|nessuno|miniatura|600x600px|Multilayer Perceptron]]&lt;/div&gt;</summary>
		<author><name>Ilaria Maserati</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=File:Perceptron.png&amp;diff=1997</id>
		<title>File:Perceptron.png</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=File:Perceptron.png&amp;diff=1997"/>
		<updated>2024-04-10T10:11:58Z</updated>

		<summary type="html">&lt;p&gt;Ilaria Maserati: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Ilaria Maserati</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Rete_Neurale_Feed-Forward_(FNN)&amp;diff=1992</id>
		<title>Rete Neurale Feed-Forward (FNN)</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Rete_Neurale_Feed-Forward_(FNN)&amp;diff=1992"/>
		<updated>2024-04-10T10:07:11Z</updated>

		<summary type="html">&lt;p&gt;Ilaria Maserati: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Nome: [[Nome::Rete neurale con flusso in avanti]]&lt;br /&gt;
&lt;br /&gt;
Nome Inglese: [[NomeInglese::Neural Network Feed-Forward]]&lt;br /&gt;
&lt;br /&gt;
Sigla: [[Sigla::FNN]]&lt;br /&gt;
&lt;br /&gt;
Anno Di Creazione: [[AnnoDiCreazione::1957]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Nelle architetture di [[Rete Neurale Artificiale (ANN)|rete neurale]] feed-forward, che sono le prime ad essere state scoperte e implementate, il flusso di informazione va dall&#039;input all&#039;output senza feedback loop come nelle [[Rete Neurale Ricorrente (RNN)|RNN]] .&lt;br /&gt;
&lt;br /&gt;
Agiscono come dei classificatori &#039;&#039;&#039;senza stato&#039;&#039;&#039;, presupponendo il fatto che l&#039;ordine di arrivo degli input non influisca sull&#039;output.&lt;br /&gt;
&lt;br /&gt;
[[File:Multilayer Perceptron .png|nessuno|miniatura|600x600px|Multilayer Perceptron]]&lt;br /&gt;
&lt;br /&gt;
[[File:Rete Neurale Feed-Forward.png|nessuno|miniatura|600x600px|Rete Neurale Feed-Forward]]&lt;br /&gt;
&lt;br /&gt;
[[Category:architettura|nessuno|miniatura|600x600px|Multilayer Perceptron]]&lt;/div&gt;</summary>
		<author><name>Ilaria Maserati</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=File:Multilayer_Perceptron_.png&amp;diff=1990</id>
		<title>File:Multilayer Perceptron .png</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=File:Multilayer_Perceptron_.png&amp;diff=1990"/>
		<updated>2024-04-10T10:06:29Z</updated>

		<summary type="html">&lt;p&gt;Ilaria Maserati: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Ilaria Maserati</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Reti_Neurali_Convoluzionali_(CNN)&amp;diff=1984</id>
		<title>Reti Neurali Convoluzionali (CNN)</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Reti_Neurali_Convoluzionali_(CNN)&amp;diff=1984"/>
		<updated>2024-04-10T10:04:27Z</updated>

		<summary type="html">&lt;p&gt;Ilaria Maserati: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Nome: [[Nome::Reti Neurali Convoluzionali]]&lt;br /&gt;
&lt;br /&gt;
Nome Inglese: [[NomeInglese::Convolutional Neural Network]]&lt;br /&gt;
&lt;br /&gt;
Sigla: [[Sigla::CNN]]&lt;br /&gt;
&lt;br /&gt;
Anno Di Creazione: [[AnnoDiCreazione::1998]]&lt;br /&gt;
&lt;br /&gt;
Pubblicazioni: [[Pubblicazioni::Very deep convolutional networks for large-scale image recognition]]; [[Pubblicazioni::Deep Residual Learning for Image Recognition]]; [[Pubblicazioni::Going Deeper with Convolutions]]&lt;br /&gt;
                                &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Reti che utilizzano Layer Convoluzionali, utilizzate soprattutto per la classificazione di immagini 2D.&lt;br /&gt;
&lt;br /&gt;
Differiscono dalle reti che utilizzano Layer Totalmente Connessi (&#039;&#039;Fully Connected Layer)&#039;&#039; in quanto l&#039;input non è monodimensionale, ma 2D, conservando in questo modo le informazioni spaziali che andrebbero perse se si appiattisse la matrice di pixel che costituisce l&#039;immagine.&lt;br /&gt;
&lt;br /&gt;
I Layer Convoluzionali applicano un filtro, detto [[kernel di convoluzione]] sull&#039;immagine.&lt;br /&gt;
&lt;br /&gt;
[[File:Rete Neurale Convoluzionale.png|nessuno|miniatura|600x600px|Rete Neurale Convoluzionale]]&lt;br /&gt;
&lt;br /&gt;
[[File:Rete Neurale Convoluzionale - Funzionamento.png|nessuno|miniatura|600x600px|Rete Neurale Convoluzionale - Funzionamento]]&lt;br /&gt;
&lt;br /&gt;
=== Links ===&lt;br /&gt;
https://en.wikipedia.org/wiki/LeNet&lt;br /&gt;
&lt;br /&gt;
[https://arxiv.org/pdf/1409.1556.pdf Very deep convolutional networks for large-scale image recognition (2015) -  VGG16]&lt;br /&gt;
&lt;br /&gt;
https://paperswithcode.com/method/vgg-16&lt;br /&gt;
&lt;br /&gt;
[https://arxiv.org/abs/1512.03385 Deep Residual Learning for Image Recognition (2015) - Resnet50] &lt;br /&gt;
&lt;br /&gt;
==== DeepDream ====&lt;br /&gt;
[https://arxiv.org/abs/1409.4842 Going Deeper with Convolutions (2014 - Inception)]&lt;br /&gt;
&lt;br /&gt;
https://blog.research.google/2015/06/inceptionism-going-deeper-into-neural.html&lt;br /&gt;
&lt;br /&gt;
https://richardcoyne.com/2022/05/01/the-hallucination-machine/&lt;br /&gt;
&lt;br /&gt;
https://www.nature.com/articles/s41598-017-16316-2&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Category:architettura]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
__SHOWFACTBOX__&lt;/div&gt;</summary>
		<author><name>Ilaria Maserati</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=File:Rete_Neurale_Convoluzionale_-_Funzionamento.png&amp;diff=1978</id>
		<title>File:Rete Neurale Convoluzionale - Funzionamento.png</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=File:Rete_Neurale_Convoluzionale_-_Funzionamento.png&amp;diff=1978"/>
		<updated>2024-04-10T10:03:31Z</updated>

		<summary type="html">&lt;p&gt;Ilaria Maserati: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Ilaria Maserati</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Reti_Neurali_Convoluzionali_(CNN)&amp;diff=1968</id>
		<title>Reti Neurali Convoluzionali (CNN)</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Reti_Neurali_Convoluzionali_(CNN)&amp;diff=1968"/>
		<updated>2024-04-10T10:01:25Z</updated>

		<summary type="html">&lt;p&gt;Ilaria Maserati: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Nome: [[Nome::Reti Neurali Convoluzionali]]&lt;br /&gt;
&lt;br /&gt;
Nome Inglese: [[NomeInglese::Convolutional Neural Network]]&lt;br /&gt;
&lt;br /&gt;
Sigla: [[Sigla::CNN]]&lt;br /&gt;
&lt;br /&gt;
Anno Di Creazione: [[AnnoDiCreazione::1998]]&lt;br /&gt;
&lt;br /&gt;
Pubblicazioni: [[Pubblicazioni::Very deep convolutional networks for large-scale image recognition]]; [[Pubblicazioni::Deep Residual Learning for Image Recognition]]; [[Pubblicazioni::Going Deeper with Convolutions]]&lt;br /&gt;
                                &lt;br /&gt;
Topic: [[Topic::Riconoscimento di pattern e analisi di immagini]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Reti che utilizzano Layer Convoluzionali, utilizzate soprattutto per la classificazione di immagini 2D.&lt;br /&gt;
&lt;br /&gt;
Differiscono dalle reti che utilizzano Layer Totalmente Connessi (&#039;&#039;Fully Connected Layer)&#039;&#039; in quanto l&#039;input non è monodimensionale, ma 2D, conservando in questo modo le informazioni spaziali che andrebbero perse se si appiattisse la matrice di pixel che costituisce l&#039;immagine.&lt;br /&gt;
&lt;br /&gt;
I Layer Convoluzionali applicano un filtro, detto [[kernel di convoluzione]] sull&#039;immagine.&lt;br /&gt;
&lt;br /&gt;
[[File:Rete Neurale Convoluzionale.png|nessuno|miniatura|600x600px|Rete Neurale Convoluzionale]]&lt;br /&gt;
&lt;br /&gt;
=== Links ===&lt;br /&gt;
https://en.wikipedia.org/wiki/LeNet&lt;br /&gt;
&lt;br /&gt;
[https://arxiv.org/pdf/1409.1556.pdf Very deep convolutional networks for large-scale image recognition (2015) -  VGG16]&lt;br /&gt;
&lt;br /&gt;
https://paperswithcode.com/method/vgg-16&lt;br /&gt;
&lt;br /&gt;
[https://arxiv.org/abs/1512.03385 Deep Residual Learning for Image Recognition (2015) - Resnet50] &lt;br /&gt;
&lt;br /&gt;
==== DeepDream ====&lt;br /&gt;
[https://arxiv.org/abs/1409.4842 Going Deeper with Convolutions (2014 - Inception)]&lt;br /&gt;
&lt;br /&gt;
https://blog.research.google/2015/06/inceptionism-going-deeper-into-neural.html&lt;br /&gt;
&lt;br /&gt;
https://richardcoyne.com/2022/05/01/the-hallucination-machine/&lt;br /&gt;
&lt;br /&gt;
https://www.nature.com/articles/s41598-017-16316-2&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Category:architettura]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
__SHOWFACTBOX__&lt;/div&gt;</summary>
		<author><name>Ilaria Maserati</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Reti_Neurali_Convoluzionali_(CNN)&amp;diff=1965</id>
		<title>Reti Neurali Convoluzionali (CNN)</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Reti_Neurali_Convoluzionali_(CNN)&amp;diff=1965"/>
		<updated>2024-04-10T10:00:46Z</updated>

		<summary type="html">&lt;p&gt;Ilaria Maserati: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Nome: [[Nome::Reti Neurali Convoluzionali]]&lt;br /&gt;
&lt;br /&gt;
Nome Inglese: [[NomeInglese::Convolutional Neural Network]]&lt;br /&gt;
&lt;br /&gt;
Sigla: [[Sigla::CNN]]&lt;br /&gt;
&lt;br /&gt;
Anno Di Creazione: [[AnnoDiCreazione::1998]]&lt;br /&gt;
&lt;br /&gt;
Pubblicazioni: [[Pubblicazioni::Very deep convolutional networks for large-scale image recognition]]; [[Pubblicazioni::Deep Residual Learning for Image Recognition]]; [[Pubblicazioni::Going Deeper with Convolutions]]&lt;br /&gt;
                                &lt;br /&gt;
Topic: [[Topic::Riconoscimento di pattern e analisi di immagini]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Reti che utilizzano Layer Convoluzionali, utilizzate soprattutto per la classificazione di immagini 2D.&lt;br /&gt;
&lt;br /&gt;
Differiscono dalle reti che utilizzano Layer Totalmente Connessi (&#039;&#039;Fully Connected Layer)&#039;&#039; in quanto l&#039;input non è monodimensionale, ma 2D, conservando in questo modo le informazioni spaziali che andrebbero perse se si appiattisse la matrice di pixel che costituisce l&#039;immagine.&lt;br /&gt;
&lt;br /&gt;
I Layer Convoluzionali applicano un filtro, detto [[kernel di convoluzione]] sull&#039;immagine.&lt;br /&gt;
&lt;br /&gt;
[[File:Rete Neurale Convoluzionale.png|nessuno|600x600px|Rete Neurale Convoluzionale]]&lt;br /&gt;
&lt;br /&gt;
=== Links ===&lt;br /&gt;
https://en.wikipedia.org/wiki/LeNet&lt;br /&gt;
&lt;br /&gt;
[https://arxiv.org/pdf/1409.1556.pdf Very deep convolutional networks for large-scale image recognition (2015) -  VGG16]&lt;br /&gt;
&lt;br /&gt;
https://paperswithcode.com/method/vgg-16&lt;br /&gt;
&lt;br /&gt;
[https://arxiv.org/abs/1512.03385 Deep Residual Learning for Image Recognition (2015) - Resnet50] &lt;br /&gt;
&lt;br /&gt;
==== DeepDream ====&lt;br /&gt;
[https://arxiv.org/abs/1409.4842 Going Deeper with Convolutions (2014 - Inception)]&lt;br /&gt;
&lt;br /&gt;
https://blog.research.google/2015/06/inceptionism-going-deeper-into-neural.html&lt;br /&gt;
&lt;br /&gt;
https://richardcoyne.com/2022/05/01/the-hallucination-machine/&lt;br /&gt;
&lt;br /&gt;
https://www.nature.com/articles/s41598-017-16316-2&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Category:architettura]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
__SHOWFACTBOX__&lt;/div&gt;</summary>
		<author><name>Ilaria Maserati</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=File:Rete_Neurale_Convoluzionale.png&amp;diff=1961</id>
		<title>File:Rete Neurale Convoluzionale.png</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=File:Rete_Neurale_Convoluzionale.png&amp;diff=1961"/>
		<updated>2024-04-10T09:59:35Z</updated>

		<summary type="html">&lt;p&gt;Ilaria Maserati: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Ilaria Maserati</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Rete_Neurale_Ricorrente_(RNN)&amp;diff=1960</id>
		<title>Rete Neurale Ricorrente (RNN)</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Rete_Neurale_Ricorrente_(RNN)&amp;diff=1960"/>
		<updated>2024-04-10T09:58:38Z</updated>

		<summary type="html">&lt;p&gt;Ilaria Maserati: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
Nome: [[Nome::Rete Neurale Ricorrente]]&lt;br /&gt;
&lt;br /&gt;
Nome Inglese: [[NomeInglese::Recurrent Neural Networks]]&lt;br /&gt;
&lt;br /&gt;
Sigla: [[Sigla::RNN]]&lt;br /&gt;
&lt;br /&gt;
Anno Di Creazione: [[AnnoDiCreazione::1990]]&lt;br /&gt;
&lt;br /&gt;
Pubblicazioni: [[Pubblicazioni::Finding Structure in Time]]; [[Pubblicazioni::Generating Sequences With Recurrent Neural Networks]]; [[Pubblicazioni::The Unreasonable Effectiveness of Recurrent Neural Networks]]&lt;br /&gt;
                                &lt;br /&gt;
Topic: [[Topic::Reti Neurali che hanno capacità di &amp;quot;memoria&amp;quot;]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Sono una delle due tipologie in cui si dividono le Reti Neurali, insieme a quella [[Feed-Forward]], dalla quale si differenziano per avere la capacità di &amp;quot;memoria&amp;quot;: l&#039;output a una determinata esecuzione non dipende solamente dall&#039;input corrente, ma anche dagli output passati. Questo le rende particolarmente adatte all&#039;elaborazione di &#039;&#039;&#039;sequenze di lunghezza arbitraria&#039;&#039;&#039;. &lt;br /&gt;
&lt;br /&gt;
=== Funzionamento ===&lt;br /&gt;
Al centro del funzionamento della RNN vi è un &#039;&#039;&#039;vettore monodimensionale&#039;&#039;&#039; chiamato &amp;quot;hidden layer&amp;quot;, di lunghezza arbitraria a seconda della dimensione del contenuto che si vuole la rete apprenda: questo parametro è chiamato normalmente &#039;&#039;dimensione del layer nascosto, o hidden_layer_size.&#039;&#039; Un vettore troppo piccolo per l&#039;obiettivo dell&#039;addestramento non convergerà, un vettore troppo grande provocherà overfitting.&lt;br /&gt;
&lt;br /&gt;
In un determinato step di esecuzione, chiamato normalmente &#039;&#039;t&#039;&#039;, come mostrato in Figura 1:&lt;br /&gt;
&lt;br /&gt;
* all&#039;input della rete viene passato un vettore di input &#039;&#039;X_t&#039;&#039; di lunghezza predefinita (&#039;&#039;input_size_&#039;&#039;: questa può essere ad esempio una rappresentazione one-hot, embedding, le posizioni sui tre assi cartesiani, i pixel di un&#039;immagine oppure una concatenazione di features provenienti da sensori&lt;br /&gt;
* &#039;&#039;X_t&#039;&#039; viene moltiplicato per la matrixe &#039;&#039;Wih&#039;&#039; e vengono aggiunti i bias &#039;&#039;Bih&#039;&#039;&lt;br /&gt;
* Il contenuto precendente (&#039;&#039;H_1)&#039;&#039; del vettore nascosto viene moltiplicato per la matrice &#039;&#039;Whh&#039;&#039;, e vengono aggiunti i bias &#039;&#039;Bhh&#039;&#039;&lt;br /&gt;
* I vettori precedenti vengono sommati, e questa somma è il nuovo valore del vettore del layer nascosto, &#039;&#039;&#039;H_t&#039;&#039;&#039;&lt;br /&gt;
* Questo valore viene poi passato da un Layer di pesi e bias per ottenere i [[Logit (Reti Neurali)|logit]] in output&lt;br /&gt;
[[File:Calcolo Matriciale RNN.png|nessuno|miniatura|600x600px|Figura 1: Calcolo matriciale all&#039;interno di una RNN]]&lt;br /&gt;
[[File:Rete Neurale Ricorrente (RNN).png|nessuno|miniatura|600x600px|Rete Neurale Ricorrente (RNN) - RNN Standard e RNN Srotolata]]&lt;br /&gt;
[[File:Rete Neurale Ricorrente - Funzionamento.png|nessuno|miniatura|600x600px|Rete Neurale Ricorrente - Funzionamento]]&lt;br /&gt;
&lt;br /&gt;
== Tutorial ==&lt;br /&gt;
[[Come creare una RNN da zero con PyTorch]]&lt;br /&gt;
&lt;br /&gt;
[https://pytorch.org/tutorials/intermediate/char_rnn_classification_tutorial.html Tutorial ufficiale di Pytorch]&lt;br /&gt;
&lt;br /&gt;
== Link ==&lt;br /&gt;
[https://onlinelibrary.wiley.com/doi/epdf/10.1207/s15516709cog1402_1 Finding Structure in Time (Elman, 1990)]&lt;br /&gt;
&lt;br /&gt;
https://karpathy.github.io/2015/05/21/rnn-effectiveness/&lt;br /&gt;
&lt;br /&gt;
[https://arxiv.org/pdf/1308.0850.pdf Generating Sequences With Recurrent Neural Networks (2014)]&lt;br /&gt;
&lt;br /&gt;
[https://www.youtube.com/watch?v=AsNTP8Kwu80 Miglior Tutorial su Youtube]&lt;br /&gt;
&lt;br /&gt;
[[Category:architettura]]&lt;br /&gt;
&lt;br /&gt;
[https://gist.github.com/karpathy/d4dee566867f8291f086 Karpathy: Minimal character-level Vanilla RNN model in C]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
__SHOWFACTBOX__&lt;/div&gt;</summary>
		<author><name>Ilaria Maserati</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Rete_Neurale_Ricorrente_(RNN)&amp;diff=1959</id>
		<title>Rete Neurale Ricorrente (RNN)</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Rete_Neurale_Ricorrente_(RNN)&amp;diff=1959"/>
		<updated>2024-04-10T09:58:15Z</updated>

		<summary type="html">&lt;p&gt;Ilaria Maserati: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
Nome: [[Nome::Rete Neurale Ricorrente]]&lt;br /&gt;
&lt;br /&gt;
Nome Inglese: [[NomeInglese::Recurrent Neural Networks]]&lt;br /&gt;
&lt;br /&gt;
Sigla: [[Sigla::RNN]]&lt;br /&gt;
&lt;br /&gt;
Anno Di Creazione: [[AnnoDiCreazione::1990]]&lt;br /&gt;
&lt;br /&gt;
Pubblicazioni: [[Pubblicazioni::Finding Structure in Time]]; [[Pubblicazioni::Generating Sequences With Recurrent Neural Networks]]; [[Pubblicazioni::The Unreasonable Effectiveness of Recurrent Neural Networks]]&lt;br /&gt;
                                &lt;br /&gt;
Topic: [[Topic::Reti Neurali che hanno capacità di &amp;quot;memoria&amp;quot;]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Sono una delle due tipologie in cui si dividono le Reti Neurali, insieme a quella [[Feed-Forward]], dalla quale si differenziano per avere la capacità di &amp;quot;memoria&amp;quot;: l&#039;output a una determinata esecuzione non dipende solamente dall&#039;input corrente, ma anche dagli output passati. Questo le rende particolarmente adatte all&#039;elaborazione di &#039;&#039;&#039;sequenze di lunghezza arbitraria&#039;&#039;&#039;. &lt;br /&gt;
&lt;br /&gt;
=== Funzionamento ===&lt;br /&gt;
Al centro del funzionamento della RNN vi è un &#039;&#039;&#039;vettore monodimensionale&#039;&#039;&#039; chiamato &amp;quot;hidden layer&amp;quot;, di lunghezza arbitraria a seconda della dimensione del contenuto che si vuole la rete apprenda: questo parametro è chiamato normalmente &#039;&#039;dimensione del layer nascosto, o hidden_layer_size.&#039;&#039; Un vettore troppo piccolo per l&#039;obiettivo dell&#039;addestramento non convergerà, un vettore troppo grande provocherà overfitting.&lt;br /&gt;
&lt;br /&gt;
In un determinato step di esecuzione, chiamato normalmente &#039;&#039;t&#039;&#039;, come mostrato in Figura 1:&lt;br /&gt;
&lt;br /&gt;
* all&#039;input della rete viene passato un vettore di input &#039;&#039;X_t&#039;&#039; di lunghezza predefinita (&#039;&#039;input_size_&#039;&#039;: questa può essere ad esempio una rappresentazione one-hot, embedding, le posizioni sui tre assi cartesiani, i pixel di un&#039;immagine oppure una concatenazione di features provenienti da sensori&lt;br /&gt;
* &#039;&#039;X_t&#039;&#039; viene moltiplicato per la matrixe &#039;&#039;Wih&#039;&#039; e vengono aggiunti i bias &#039;&#039;Bih&#039;&#039;&lt;br /&gt;
* Il contenuto precendente (&#039;&#039;H_1)&#039;&#039; del vettore nascosto viene moltiplicato per la matrice &#039;&#039;Whh&#039;&#039;, e vengono aggiunti i bias &#039;&#039;Bhh&#039;&#039;&lt;br /&gt;
* I vettori precedenti vengono sommati, e questa somma è il nuovo valore del vettore del layer nascosto, &#039;&#039;&#039;H_t&#039;&#039;&#039;&lt;br /&gt;
* Questo valore viene poi passato da un Layer di pesi e bias per ottenere i [[Logit (Reti Neurali)|logit]] in output&lt;br /&gt;
[[File:Calcolo Matriciale RNN.png|nessuno|miniatura|600x600px|Figura 1: Calcolo matriciale all&#039;interno di una RNN]]&lt;br /&gt;
[[File:Rete Neurale Ricorrente (RNN).png|nessuno|miniatura|600x600px|Rete Neurale Ricorrente (RNN) - RNN Standard e RNN Srotolata]]&lt;br /&gt;
[[File:File:Rete Neurale Ricorrente - Funzionamento.png|nessuno|miniatura|600x600px|Rete Neurale Ricorrente - Funzionamento]]&lt;br /&gt;
&lt;br /&gt;
== Tutorial ==&lt;br /&gt;
[[Come creare una RNN da zero con PyTorch]]&lt;br /&gt;
&lt;br /&gt;
[https://pytorch.org/tutorials/intermediate/char_rnn_classification_tutorial.html Tutorial ufficiale di Pytorch]&lt;br /&gt;
&lt;br /&gt;
== Link ==&lt;br /&gt;
[https://onlinelibrary.wiley.com/doi/epdf/10.1207/s15516709cog1402_1 Finding Structure in Time (Elman, 1990)]&lt;br /&gt;
&lt;br /&gt;
https://karpathy.github.io/2015/05/21/rnn-effectiveness/&lt;br /&gt;
&lt;br /&gt;
[https://arxiv.org/pdf/1308.0850.pdf Generating Sequences With Recurrent Neural Networks (2014)]&lt;br /&gt;
&lt;br /&gt;
[https://www.youtube.com/watch?v=AsNTP8Kwu80 Miglior Tutorial su Youtube]&lt;br /&gt;
&lt;br /&gt;
[[Category:architettura]]&lt;br /&gt;
&lt;br /&gt;
[https://gist.github.com/karpathy/d4dee566867f8291f086 Karpathy: Minimal character-level Vanilla RNN model in C]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
__SHOWFACTBOX__&lt;/div&gt;</summary>
		<author><name>Ilaria Maserati</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=File:Rete_Neurale_Ricorrente_-_Funzionamento.png&amp;diff=1957</id>
		<title>File:Rete Neurale Ricorrente - Funzionamento.png</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=File:Rete_Neurale_Ricorrente_-_Funzionamento.png&amp;diff=1957"/>
		<updated>2024-04-10T09:56:54Z</updated>

		<summary type="html">&lt;p&gt;Ilaria Maserati: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Ilaria Maserati</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Rete_Neurale_Ricorrente_(RNN)&amp;diff=1956</id>
		<title>Rete Neurale Ricorrente (RNN)</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Rete_Neurale_Ricorrente_(RNN)&amp;diff=1956"/>
		<updated>2024-04-10T09:55:56Z</updated>

		<summary type="html">&lt;p&gt;Ilaria Maserati: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
Nome: [[Nome::Rete Neurale Ricorrente]]&lt;br /&gt;
&lt;br /&gt;
Nome Inglese: [[NomeInglese::Recurrent Neural Networks]]&lt;br /&gt;
&lt;br /&gt;
Sigla: [[Sigla::RNN]]&lt;br /&gt;
&lt;br /&gt;
Anno Di Creazione: [[AnnoDiCreazione::1990]]&lt;br /&gt;
&lt;br /&gt;
Pubblicazioni: [[Pubblicazioni::Finding Structure in Time]]; [[Pubblicazioni::Generating Sequences With Recurrent Neural Networks]]; [[Pubblicazioni::The Unreasonable Effectiveness of Recurrent Neural Networks]]&lt;br /&gt;
                                &lt;br /&gt;
Topic: [[Topic::Reti Neurali che hanno capacità di &amp;quot;memoria&amp;quot;]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Sono una delle due tipologie in cui si dividono le Reti Neurali, insieme a quella [[Feed-Forward]], dalla quale si differenziano per avere la capacità di &amp;quot;memoria&amp;quot;: l&#039;output a una determinata esecuzione non dipende solamente dall&#039;input corrente, ma anche dagli output passati. Questo le rende particolarmente adatte all&#039;elaborazione di &#039;&#039;&#039;sequenze di lunghezza arbitraria&#039;&#039;&#039;. &lt;br /&gt;
&lt;br /&gt;
=== Funzionamento ===&lt;br /&gt;
Al centro del funzionamento della RNN vi è un &#039;&#039;&#039;vettore monodimensionale&#039;&#039;&#039; chiamato &amp;quot;hidden layer&amp;quot;, di lunghezza arbitraria a seconda della dimensione del contenuto che si vuole la rete apprenda: questo parametro è chiamato normalmente &#039;&#039;dimensione del layer nascosto, o hidden_layer_size.&#039;&#039; Un vettore troppo piccolo per l&#039;obiettivo dell&#039;addestramento non convergerà, un vettore troppo grande provocherà overfitting.&lt;br /&gt;
&lt;br /&gt;
In un determinato step di esecuzione, chiamato normalmente &#039;&#039;t&#039;&#039;, come mostrato in Figura 1:&lt;br /&gt;
&lt;br /&gt;
* all&#039;input della rete viene passato un vettore di input &#039;&#039;X_t&#039;&#039; di lunghezza predefinita (&#039;&#039;input_size_&#039;&#039;: questa può essere ad esempio una rappresentazione one-hot, embedding, le posizioni sui tre assi cartesiani, i pixel di un&#039;immagine oppure una concatenazione di features provenienti da sensori&lt;br /&gt;
* &#039;&#039;X_t&#039;&#039; viene moltiplicato per la matrixe &#039;&#039;Wih&#039;&#039; e vengono aggiunti i bias &#039;&#039;Bih&#039;&#039;&lt;br /&gt;
* Il contenuto precendente (&#039;&#039;H_1)&#039;&#039; del vettore nascosto viene moltiplicato per la matrice &#039;&#039;Whh&#039;&#039;, e vengono aggiunti i bias &#039;&#039;Bhh&#039;&#039;&lt;br /&gt;
* I vettori precedenti vengono sommati, e questa somma è il nuovo valore del vettore del layer nascosto, &#039;&#039;&#039;H_t&#039;&#039;&#039;&lt;br /&gt;
* Questo valore viene poi passato da un Layer di pesi e bias per ottenere i [[Logit (Reti Neurali)|logit]] in output&lt;br /&gt;
[[File:Calcolo Matriciale RNN.png|nessuno|miniatura|899x899px|Figura 1: Calcolo matriciale all&#039;interno di una RNN]]&lt;br /&gt;
[[File:Rete Neurale Ricorrente (RNN).png|nessuno|miniatura|600x600px|Rete Neurale Ricorrente (RNN) - RNN Standard e RNN Srotolata]]&lt;br /&gt;
&lt;br /&gt;
== Tutorial ==&lt;br /&gt;
[[Come creare una RNN da zero con PyTorch]]&lt;br /&gt;
&lt;br /&gt;
[https://pytorch.org/tutorials/intermediate/char_rnn_classification_tutorial.html Tutorial ufficiale di Pytorch]&lt;br /&gt;
&lt;br /&gt;
== Link ==&lt;br /&gt;
[https://onlinelibrary.wiley.com/doi/epdf/10.1207/s15516709cog1402_1 Finding Structure in Time (Elman, 1990)]&lt;br /&gt;
&lt;br /&gt;
https://karpathy.github.io/2015/05/21/rnn-effectiveness/&lt;br /&gt;
&lt;br /&gt;
[https://arxiv.org/pdf/1308.0850.pdf Generating Sequences With Recurrent Neural Networks (2014)]&lt;br /&gt;
&lt;br /&gt;
[https://www.youtube.com/watch?v=AsNTP8Kwu80 Miglior Tutorial su Youtube]&lt;br /&gt;
&lt;br /&gt;
[[Category:architettura]]&lt;br /&gt;
&lt;br /&gt;
[https://gist.github.com/karpathy/d4dee566867f8291f086 Karpathy: Minimal character-level Vanilla RNN model in C]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
__SHOWFACTBOX__&lt;/div&gt;</summary>
		<author><name>Ilaria Maserati</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=File:Rete_Neurale_Ricorrente_(RNN).png&amp;diff=1955</id>
		<title>File:Rete Neurale Ricorrente (RNN).png</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=File:Rete_Neurale_Ricorrente_(RNN).png&amp;diff=1955"/>
		<updated>2024-04-10T09:53:55Z</updated>

		<summary type="html">&lt;p&gt;Ilaria Maserati: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;/div&gt;</summary>
		<author><name>Ilaria Maserati</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Rete_Neurale_Feed-Forward_(FNN)&amp;diff=1954</id>
		<title>Rete Neurale Feed-Forward (FNN)</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Rete_Neurale_Feed-Forward_(FNN)&amp;diff=1954"/>
		<updated>2024-04-10T09:51:55Z</updated>

		<summary type="html">&lt;p&gt;Ilaria Maserati: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Nome: [[Nome::Rete neurale con flusso in avanti]]&lt;br /&gt;
&lt;br /&gt;
Nome Inglese: [[NomeInglese::Neural Network Feed-Forward]]&lt;br /&gt;
&lt;br /&gt;
Sigla: [[Sigla::FNN]]&lt;br /&gt;
&lt;br /&gt;
Anno Di Creazione: [[AnnoDiCreazione::1957]]&lt;br /&gt;
&lt;br /&gt;
Topic: [[Topic::Modelli computazioni che processano le informazioni in una direzione unica, attraverso strati di neuroni artificiali]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Nelle architetture di [[Rete Neurale Artificiale (ANN)|rete neurale]] feed-forward, che sono le prime ad essere state scoperte e implementate, il flusso di informazione va dall&#039;input all&#039;output senza feedback loop come nelle [[Rete Neurale Ricorrente (RNN)|RNN]] .&lt;br /&gt;
&lt;br /&gt;
Agiscono come dei classificatori &#039;&#039;&#039;senza stato&#039;&#039;&#039;, presupponendo il fatto che l&#039;ordine di arrivo degli input non influisca sull&#039;output.&lt;br /&gt;
&lt;br /&gt;
[[File:Multilayer Perceptron.png|nessuno|miniatura|600x600px|Multilayer Perceptron]]&lt;br /&gt;
&lt;br /&gt;
[[File:Rete Neurale Feed-Forward.png|nessuno|miniatura|600x600px|Rete Neurale Feed-Forward]]&lt;br /&gt;
&lt;br /&gt;
[[Category:architettura|nessuno|miniatura|600x600px|Multilayer Perceptron]]&lt;/div&gt;</summary>
		<author><name>Ilaria Maserati</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Rete_Neurale_Feed-Forward_(FNN)&amp;diff=1953</id>
		<title>Rete Neurale Feed-Forward (FNN)</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Rete_Neurale_Feed-Forward_(FNN)&amp;diff=1953"/>
		<updated>2024-04-10T09:51:11Z</updated>

		<summary type="html">&lt;p&gt;Ilaria Maserati: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Nome: [[Nome::Rete neurale con flusso in avanti]]&lt;br /&gt;
&lt;br /&gt;
Nome Inglese: [[NomeInglese::Neural Network Feed-Forward]]&lt;br /&gt;
&lt;br /&gt;
Sigla: [[Sigla::FNN]]&lt;br /&gt;
&lt;br /&gt;
Anno Di Creazione: [[AnnoDiCreazione::1957]]&lt;br /&gt;
&lt;br /&gt;
Topic: [[Topic::Modelli computazioni che processano le informazioni in una direzione unica, attraverso strati di neuroni artificiali]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Nelle architetture di [[Rete Neurale Artificiale (ANN)|rete neurale]] feed-forward, che sono le prime ad essere state scoperte e implementate, il flusso di informazione va dall&#039;input all&#039;output senza feedback loop come nelle [[Rete Neurale Ricorrente (RNN)|RNN]] .&lt;br /&gt;
&lt;br /&gt;
Agiscono come dei classificatori &#039;&#039;&#039;senza stato&#039;&#039;&#039;, presupponendo il fatto che l&#039;ordine di arrivo degli input non influisca sull&#039;output.&lt;br /&gt;
&lt;br /&gt;
[[File:Multilayer Perceptron.png]]&lt;br /&gt;
&lt;br /&gt;
[[File:Rete Neurale Feed-Forward.png|nessuno|miniatura|600x600px|Rete Neurale Feed-Forward]]&lt;br /&gt;
&lt;br /&gt;
[[Category:architettura|nessuno|miniatura|600x600px|Multilayer Perceptron]]&lt;/div&gt;</summary>
		<author><name>Ilaria Maserati</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Rete_Neurale_Feed-Forward_(FNN)&amp;diff=1951</id>
		<title>Rete Neurale Feed-Forward (FNN)</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Rete_Neurale_Feed-Forward_(FNN)&amp;diff=1951"/>
		<updated>2024-04-10T09:49:53Z</updated>

		<summary type="html">&lt;p&gt;Ilaria Maserati: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Nome: [[Nome::Rete neurale con flusso in avanti]]&lt;br /&gt;
&lt;br /&gt;
Nome Inglese: [[NomeInglese::Neural Network Feed-Forward]]&lt;br /&gt;
&lt;br /&gt;
Sigla: [[Sigla::FNN]]&lt;br /&gt;
&lt;br /&gt;
Anno Di Creazione: [[AnnoDiCreazione::1957]]&lt;br /&gt;
&lt;br /&gt;
Topic: [[Topic::Modelli computazioni che processano le informazioni in una direzione unica, attraverso strati di neuroni artificiali]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Nelle architetture di [[Rete Neurale Artificiale (ANN)|rete neurale]] feed-forward, che sono le prime ad essere state scoperte e implementate, il flusso di informazione va dall&#039;input all&#039;output senza feedback loop come nelle [[Rete Neurale Ricorrente (RNN)|RNN]] .&lt;br /&gt;
&lt;br /&gt;
Agiscono come dei classificatori &#039;&#039;&#039;senza stato&#039;&#039;&#039;, presupponendo il fatto che l&#039;ordine di arrivo degli input non influisca sull&#039;output.&lt;br /&gt;
&lt;br /&gt;
[[File:Multilayer Perceptron.png]]&lt;br /&gt;
&lt;br /&gt;
[[File:Rete Neurale Feed-Forward.png|nessuno|miniatura|600x600px|Rete Neurale Feed-Forward]]&lt;br /&gt;
&lt;br /&gt;
[[Category:architettura]]&lt;/div&gt;</summary>
		<author><name>Ilaria Maserati</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=LongAlign&amp;diff=1470</id>
		<title>LongAlign</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=LongAlign&amp;diff=1470"/>
		<updated>2024-03-20T14:41:16Z</updated>

		<summary type="html">&lt;p&gt;Ilaria Maserati: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;LongAlign&#039;&#039;&#039; è una tecnica avanzata progettata per aiutare i grandi modelli di intelligenza artificiale a &#039;&#039;&#039;comprendere e gestire&#039;&#039;&#039; &#039;&#039;&#039;testi molto lunghi&#039;&#039;&#039; in modo più efficace. Questo metodo introduce un modo nuovo per preparare i modelli a capire meglio le istruzioni complesse e a rispondere in maniera più accurata su argomenti estesi.&lt;br /&gt;
&lt;br /&gt;
Funzionamento di LongAlign:&lt;br /&gt;
&lt;br /&gt;
1. &#039;&#039;&#039;Costruzione di un dataset specifico&#039;&#039;&#039;: Prima di tutto, LongAlign crea un insieme di dati appositamente progettato per addestrare gli LLM su contesti lunghi. Questo set di dati comprende esempi che coprono una vasta gamma di argomenti e formati, assicurando che il modello possa imparare a gestire una varietà di materiali lunghi.&lt;br /&gt;
&lt;br /&gt;
2. &#039;&#039;&#039;Tecniche di addestramento efficienti&#039;&#039;&#039;: LongAlign utilizza strategie di addestramento innovative per accelerare il processo di apprendimento senza sacrificare la qualità. Due approcci chiave sono il &amp;quot;&#039;&#039;&#039;packing&#039;&#039;&#039;&amp;quot; e il &amp;quot;&#039;&#039;&#039;batching ordinato&#039;&#039;&#039;&amp;quot;. Il &#039;&#039;&#039;packing&#039;&#039;&#039; consiste nel combinare insieme diversi pezzi di testo fino a raggiungere una lunghezza massima, ottimizzando l&#039;uso delle risorse di calcolo. Il &#039;&#039;&#039;batching ordinato&#039;&#039;&#039; raggruppa i testi di lunghezza simile per minimizzare i tempi morti. Questi metodi aiutano il modello a imparare in modo più efficiente da grandi volumi di testo.&lt;br /&gt;
&lt;br /&gt;
3. &#039;&#039;&#039;Valutazione su compiti complessi&#039;&#039;&#039;: LongAlign testa i modelli su &#039;&#039;&#039;LongBench-Chat&#039;&#039;&#039;, un benchmark che presenta domande di lunghezza reale da &#039;&#039;&#039;10k a 100k caratteri&#039;&#039;&#039;. Questo tipo di valutazione assicura che il modello non solo possa gestire testi lunghi, ma che possa anche comprendere e rispondere a domande complesse basate su quei testi.&lt;br /&gt;
[[File:Screenshot_2024-03-20_152310.png|centro|miniatura|356x356px|Risultati dei test su LongBench-Chat, che contiene query del mondo reale di lunghezza da 10k a 100k.]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
L&#039;importanza di LongAlign risiede nella sua capacità di spingere i limiti di ciò che gli LLM possono fare. Tradizionalmente, gli LLM lottano con testi lunghi a causa delle limitazioni di memoria e attenzione, ma LongAlign offre un modo per superare tali limiti. Inoltre, il metodo garantisce che i modelli rimangano versatili, mantenendo alte prestazioni su una vasta gamma di compiti, sia che richiedano la gestione di poche righe di testo o l&#039;analisi di interi documenti.&lt;br /&gt;
&lt;br /&gt;
== Link ==&lt;br /&gt;
&lt;br /&gt;
=== Paper ===&lt;br /&gt;
[https://arxiv.org/abs/2401.18058 LongAlign: A Recipe for Long Context Alignment of Large Language Models]: paper originale&lt;br /&gt;
&lt;br /&gt;
=== Github ===&lt;br /&gt;
https://github.com/THUDM/LongAlign&lt;br /&gt;
&lt;br /&gt;
[[Category: Benchmark]]&lt;/div&gt;</summary>
		<author><name>Ilaria Maserati</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=LongAlign&amp;diff=1469</id>
		<title>LongAlign</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=LongAlign&amp;diff=1469"/>
		<updated>2024-03-20T14:40:46Z</updated>

		<summary type="html">&lt;p&gt;Ilaria Maserati: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;LongAlign&#039;&#039;&#039; è una tecnica avanzata progettata per aiutare i grandi modelli di intelligenza artificiale a &#039;&#039;&#039;comprendere e gestire&#039;&#039;&#039; &#039;&#039;&#039;testi molto lunghi&#039;&#039;&#039; in modo più efficace. Questo metodo introduce un modo nuovo per preparare i modelli a capire meglio le istruzioni complesse e a rispondere in maniera più accurata su argomenti estesi.&lt;br /&gt;
&lt;br /&gt;
Funzionamento di LongAlign:&lt;br /&gt;
&lt;br /&gt;
1. &#039;&#039;&#039;Costruzione di un dataset specifico&#039;&#039;&#039;: Prima di tutto, LongAlign crea un insieme di dati appositamente progettato per addestrare gli LLM su contesti lunghi. Questo set di dati comprende esempi che coprono una vasta gamma di argomenti e formati, assicurando che il modello possa imparare a gestire una varietà di materiali lunghi.&lt;br /&gt;
&lt;br /&gt;
2. &#039;&#039;&#039;Tecniche di addestramento efficienti&#039;&#039;&#039;: LongAlign utilizza strategie di addestramento innovative per accelerare il processo di apprendimento senza sacrificare la qualità. Due approcci chiave sono il &amp;quot;&#039;&#039;&#039;packing&#039;&#039;&#039;&amp;quot; e il &amp;quot;&#039;&#039;&#039;batching ordinato&#039;&#039;&#039;&amp;quot;. Il &#039;&#039;&#039;packing&#039;&#039;&#039; consiste nel combinare insieme diversi pezzi di testo fino a raggiungere una lunghezza massima, ottimizzando l&#039;uso delle risorse di calcolo. Il &#039;&#039;&#039;batching ordinato&#039;&#039;&#039; raggruppa i testi di lunghezza simile per minimizzare i tempi morti. Questi metodi aiutano il modello a imparare in modo più efficiente da grandi volumi di testo.&lt;br /&gt;
&lt;br /&gt;
3. &#039;&#039;&#039;Valutazione su compiti complessi&#039;&#039;&#039;: LongAlign testa i modelli su &#039;&#039;&#039;LongBench-Chat&#039;&#039;&#039;, un benchmark che presenta domande di lunghezza reale da &#039;&#039;&#039;10k a 100k caratteri&#039;&#039;&#039;. Questo tipo di valutazione assicura che il modello non solo possa gestire testi lunghi, ma che possa anche comprendere e rispondere a domande complesse basate su quei testi.&lt;br /&gt;
[[File:Screenshot_2024-03-20_152310.png|centro|miniatura|356x356px|Risultati dei test su LongBench-Chat, che contiene query del mondo reale di lunghezza da 10k a 100k.]]&lt;br /&gt;
L&#039;importanza di LongAlign risiede nella sua capacità di spingere i limiti di ciò che gli LLM possono fare. Tradizionalmente, gli LLM lottano con testi lunghi a causa delle limitazioni di memoria e attenzione, ma LongAlign offre un modo per superare tali limiti. Inoltre, il metodo garantisce che i modelli rimangano versatili, mantenendo alte prestazioni su una vasta gamma di compiti, sia che richiedano la gestione di poche righe di testo o l&#039;analisi di interi documenti.&lt;br /&gt;
&lt;br /&gt;
L&#039;importanza di LongAlign risiede nella sua capacità di spingere i limiti di ciò che gli LLM possono fare. Tradizionalmente, gli LLM lottano con testi lunghi a causa delle limitazioni di memoria e attenzione, ma LongAlign offre un modo per superare tali limiti. Inoltre, il metodo garantisce che i modelli rimangano versatili, mantenendo alte prestazioni su una vasta gamma di compiti, sia che richiedano la gestione di poche righe di testo o l&#039;analisi di interi documenti.&lt;br /&gt;
&lt;br /&gt;
== Link ==&lt;br /&gt;
&lt;br /&gt;
=== Paper ===&lt;br /&gt;
[https://arxiv.org/abs/2401.18058 LongAlign: A Recipe for Long Context Alignment of Large Language Models]: paper originale&lt;br /&gt;
&lt;br /&gt;
=== Github ===&lt;br /&gt;
https://github.com/THUDM/LongAlign&lt;br /&gt;
&lt;br /&gt;
[[Category: Benchmark]]&lt;/div&gt;</summary>
		<author><name>Ilaria Maserati</name></author>
	</entry>
</feed>