<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="it">
	<id>https://wiki.mindmaker.it/index.php?action=history&amp;feed=atom&amp;title=Vocabolario</id>
	<title>Vocabolario - Cronologia</title>
	<link rel="self" type="application/atom+xml" href="https://wiki.mindmaker.it/index.php?action=history&amp;feed=atom&amp;title=Vocabolario"/>
	<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Vocabolario&amp;action=history"/>
	<updated>2026-05-01T23:18:41Z</updated>
	<subtitle>Cronologia della pagina su questo sito</subtitle>
	<generator>MediaWiki 1.41.0</generator>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Vocabolario&amp;diff=2989&amp;oldid=prev</id>
		<title>Alesaccoia: Creata pagina con &quot;In un modello di linguaggio, il &#039;&#039;&#039;vocabolario&#039;&#039;&#039; è l&#039;insieme &#039;&#039;&#039;&lt;u&gt;finito&lt;/u&gt;&#039;&#039;&#039; di parole e simboli, chiamati genericamente &#039;&#039;&#039;token&#039;&#039;&#039;, che il modello è in grado di riconoscere, elaborare e generare. Ogni token del vocabolario ha una sua rappresentazione numerica che viene utilizzata come input per la rete neurale.  Durante l&#039;addestramento, il modello impara a predire la probabilità dei vari token nel vocabolario, &#039;&#039;&#039;dato&#039;&#039;&#039; &#039;&#039;&#039;un contesto&#039;&#039;&#039;. Il vocabolario è...&quot;</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Vocabolario&amp;diff=2989&amp;oldid=prev"/>
		<updated>2024-09-05T10:46:32Z</updated>

		<summary type="html">&lt;p&gt;Creata pagina con &amp;quot;In un modello di linguaggio, il &amp;#039;&amp;#039;&amp;#039;&lt;a href=&quot;/index.php/Vocabolario&quot; title=&quot;Vocabolario&quot;&gt;vocabolario&lt;/a&gt;&amp;#039;&amp;#039;&amp;#039; è l&amp;#039;insieme &amp;#039;&amp;#039;&amp;#039;&amp;lt;u&amp;gt;finito&amp;lt;/u&amp;gt;&amp;#039;&amp;#039;&amp;#039; di parole e simboli, chiamati genericamente &amp;#039;&amp;#039;&amp;#039;token&amp;#039;&amp;#039;&amp;#039;, che il modello è in grado di riconoscere, elaborare e generare. Ogni token del vocabolario ha una sua rappresentazione numerica che viene utilizzata come input per la rete neurale.  Durante l&amp;#039;addestramento, il modello impara a predire la probabilità dei vari token nel vocabolario, &amp;#039;&amp;#039;&amp;#039;dato&amp;#039;&amp;#039;&amp;#039; &amp;#039;&amp;#039;&amp;#039;un contesto&amp;#039;&amp;#039;&amp;#039;. Il vocabolario è...&amp;quot;&lt;/p&gt;
&lt;p&gt;&lt;b&gt;Nuova pagina&lt;/b&gt;&lt;/p&gt;&lt;div&gt;In un modello di linguaggio, il &amp;#039;&amp;#039;&amp;#039;[[vocabolario]]&amp;#039;&amp;#039;&amp;#039; è l&amp;#039;insieme &amp;#039;&amp;#039;&amp;#039;&amp;lt;u&amp;gt;finito&amp;lt;/u&amp;gt;&amp;#039;&amp;#039;&amp;#039; di parole e simboli, chiamati genericamente &amp;#039;&amp;#039;&amp;#039;token&amp;#039;&amp;#039;&amp;#039;, che il modello è in grado di riconoscere, elaborare e generare. Ogni token del vocabolario ha una sua rappresentazione numerica che viene utilizzata come input per la rete neurale.&lt;br /&gt;
&lt;br /&gt;
Durante l&amp;#039;addestramento, il modello impara a predire la probabilità dei vari token nel vocabolario, &amp;#039;&amp;#039;&amp;#039;dato&amp;#039;&amp;#039;&amp;#039; &amp;#039;&amp;#039;&amp;#039;un contesto&amp;#039;&amp;#039;&amp;#039;. Il vocabolario è di dimensione fissa e viene definito in fase di preparazione dei dati; esso rappresenta una parte importante del modello, poiché un vocabolario più ampio permette di rappresentare una maggiore varietà di espressioni linguistiche, ma comporta anche una maggiore complessità computazionale. Per il modello GPT-3 i token sono circa 50000.&lt;br /&gt;
[[Categoria:Concetto]]&lt;/div&gt;</summary>
		<author><name>Alesaccoia</name></author>
	</entry>
</feed>