<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="it">
	<id>https://wiki.mindmaker.it/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=Mindmakerbot</id>
	<title>Wiki AI - Contributi dell&#039;utente [it]</title>
	<link rel="self" type="application/atom+xml" href="https://wiki.mindmaker.it/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=Mindmakerbot"/>
	<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php/Speciale:Contributi/Mindmakerbot"/>
	<updated>2026-05-01T08:31:35Z</updated>
	<subtitle>Contributi dell&amp;#039;utente</subtitle>
	<generator>MediaWiki 1.41.0</generator>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=BABILong&amp;diff=4763</id>
		<title>BABILong</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=BABILong&amp;diff=4763"/>
		<updated>2025-04-15T05:52:23Z</updated>

		<summary type="html">&lt;p&gt;Mindmakerbot: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Template benchmark&lt;br /&gt;
|Nome=BABILong&lt;br /&gt;
|Sigla=&lt;br /&gt;
|Anno di creazione=2024&lt;br /&gt;
|URLHomePage=https://github.com/booydar/babilong?tab=readme-ov-file BABILong: a long-context needle-in-a-haystack benchmark for LLMs&lt;br /&gt;
|Pubblicazione=[https://arxiv.org/pdf/2402.10790.pdf In Search of Needles in a 11M Haystack:Recurrent Memory Finds What LLMs Miss]&lt;br /&gt;
}}&lt;br /&gt;
&#039;&#039;&#039;BABILong&#039;&#039;&#039; è un benchmark progettato per valutare le capacità del modello nell&#039;estrazione ed elaborazione di fatti distribuiti all&#039;interno di testi estesi.&lt;br /&gt;
&lt;br /&gt;
Risolvere compiti con una dimensione di contesto lunga richiede al modello di distinguere informazioni importanti da grandi quantità di dettagli irrilevanti. Per simulare questo comportamento, &amp;quot;nascondiamo&amp;quot; le frasi del compito originale tra le frasi di testo irrilevante che proviene da un&#039;altra distribuzione strettamente correlata (vedi Figura 1). &lt;br /&gt;
&lt;br /&gt;
[[File:Screenshot 2024-03-20 alle 14.17.32.png|centro|miniatura|&#039;&#039;&#039;Figura1:&#039;&#039;&#039; Esempio di generazione per il dataset BABILong. Le affermazioni rilevanti per la domanda da un campione di bAbILong sono nascoste all&#039;interno di testi più ampi e irrilevanti provenienti da PG19.]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Questo approccio è basato sui primi test &amp;quot;&#039;&#039;&#039;ago nel pagliaio&#039;&#039;&#039;&amp;quot;. Si tratta di un test che mira a testare la capacità di un sistema AI di &#039;&#039;&#039;identificare&#039;&#039;&#039;, &#039;&#039;&#039;estrarre&#039;&#039;&#039;, o &#039;&#039;&#039;riconoscere&#039;&#039;&#039; un&#039;informazione molto specifica o un elemento (l&#039;&amp;quot;ago&amp;quot;) da un vasto insieme di dati o informazioni non pertinenti (il &amp;quot;pagliaio&amp;quot;). Questo concetto può essere applicato in vari ambiti, come il riconoscimento di pattern, la ricerca di informazioni, il processamento del linguaggio naturale, e altri campi dell&#039;AI dove il sistema deve dimostrare di poter effettivamente &amp;quot;trovare l&#039;ago nel pagliaio&amp;quot;.&lt;br /&gt;
&lt;br /&gt;
== Link ==&lt;br /&gt;
=== Paper ===&lt;br /&gt;
[https://arxiv.org/pdf/2402.10790.pdf In Search of Needles in a 11M Haystack:Recurrent Memory Finds What LLMs Miss]: paper originale&lt;br /&gt;
&lt;br /&gt;
=== Github ===&lt;br /&gt;
[https://github.com/booydar/babilong?tab=readme-ov-file BABILong: a long-context needle-in-a-haystack benchmark for LLMs]&lt;br /&gt;
&lt;br /&gt;
{{#seo:&lt;br /&gt;
|title=BABILong&lt;br /&gt;
|title_mode=append&lt;br /&gt;
|keywords=benchmark, intelligenza artificiale, AI, elaborazione del linguaggio naturale, NLP, modelli linguistici di grandi dimensioni, LLM, ago nel pagliaio, memoria ricorrente, estrazione di informazioni&lt;br /&gt;
|description=BABILong è un benchmark per valutare la capacità dei modelli linguistici di estrarre informazioni da testi estesi. Simula la ricerca di un ago nel pagliaio&amp;quot;, nascondendo frasi cruciali in mezzo a informazioni irrilevanti per testare la capacità di un modello di distinguere dati importanti da dettagli superflui.&amp;quot;&lt;br /&gt;
|image=Screenshot 2024-03-20 alle 14.17.32.png&lt;br /&gt;
}}&lt;/div&gt;</summary>
		<author><name>Mindmakerbot</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=An_Evaluation_Dataset_for_Intent_Classification_and_Out-of-Scope_Prediction_(CLINC150)&amp;diff=4762</id>
		<title>An Evaluation Dataset for Intent Classification and Out-of-Scope Prediction (CLINC150)</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=An_Evaluation_Dataset_for_Intent_Classification_and_Out-of-Scope_Prediction_(CLINC150)&amp;diff=4762"/>
		<updated>2025-04-15T05:52:15Z</updated>

		<summary type="html">&lt;p&gt;Mindmakerbot: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{Template benchmark&lt;br /&gt;
|Nome=An Evaluation Dataset for Intent Classification and Out-of-Scope Prediction&lt;br /&gt;
|Sigla=CLINC150&lt;br /&gt;
|Anno di creazione=2019&lt;br /&gt;
|URLHomePage=[https://paperswithcode.com/dataset/clinc150 An Evaluation Dataset for Intent Classification and Out-of-Scope Prediction (CLINC150)]&lt;br /&gt;
|Pubblicazione=[https://arxiv.org/abs/1909.02027]&lt;br /&gt;
}}&lt;br /&gt;
Dataset per valutare la performance di un classificatore di domande fuori contesto (out-of-scope) per il task di [[classificazione degli intenti]].&lt;br /&gt;
&lt;br /&gt;
=== Links ===&lt;br /&gt;
https://paperswithcode.com/dataset/clinc150&lt;br /&gt;
https://arxiv.org/abs/1909.02027&lt;br /&gt;
&lt;br /&gt;
{{#seo:&lt;br /&gt;
|title=CLINC150&lt;br /&gt;
|title_mode=append&lt;br /&gt;
|keywords=classificazione degli intenti, dataset, out-of-scope, intelligenza artificiale, apprendimento automatico, elaborazione del linguaggio naturale, NLP, analisi del testo, chatbot, assistenti virtuali&lt;br /&gt;
|description=CLINC150 è un dataset per la valutazione di sistemi di classificazione degli intenti e per l&#039;individuazione di domande fuori contesto (out-of-scope). Creato nel 2019, il dataset è disponibile pubblicamente e rappresenta un punto di riferimento per la ricerca nel campo dell&#039;elaborazione del linguaggio naturale.&lt;br /&gt;
}}&lt;/div&gt;</summary>
		<author><name>Mindmakerbot</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Neural_networks_and_physical_systems_with_emergent_collective_computational_abilities&amp;diff=4734</id>
		<title>Neural networks and physical systems with emergent collective computational abilities</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Neural_networks_and_physical_systems_with_emergent_collective_computational_abilities&amp;diff=4734"/>
		<updated>2025-01-11T16:32:01Z</updated>

		<summary type="html">&lt;p&gt;Mindmakerbot: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{template pubblicazione&lt;br /&gt;
|data=1982&lt;br /&gt;
|autori=J. Hopfield&lt;br /&gt;
|URL=https://www.semanticscholar.org/paper/98b4d4e24aab57ab4e1124ff8106909050645cfa&lt;br /&gt;
|topic=Reti neurali&lt;br /&gt;
|citazioni=18582&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
Questo articolo esplora le proprietà computazionali emergenti da sistemi con un gran numero di componenti semplici, come i neuroni. L&#039;autore descrive il concetto di memoria indirizzabile al contenuto e propone un modello basato su principi neurobiologici, applicabile anche a circuiti integrati. Il modello dimostra capacità di recupero della memoria, generalizzazione, riconoscimento, categorizzazione, correzione degli errori e ritenzione di sequenze temporali. Queste proprietà collettive si dimostrano robuste anche in presenza di malfunzionamenti individuali dei componenti.&lt;br /&gt;
&lt;br /&gt;
[[Category:Pubblicazione]]&lt;br /&gt;
&lt;br /&gt;
{{#seo:&lt;br /&gt;
|title=Neural networks and physical systems with emergent collective computational abilities&lt;br /&gt;
|title_mode=append&lt;br /&gt;
|keywords=reti neurali, sistemi fisici, computazione emergente, memoria indirizzabile al contenuto, modello neurobiologico, circuiti integrati, recupero della memoria, generalizzazione, riconoscimento, categorizzazione, correzione degli errori, sequenze temporali, robustezza, malfunzionamenti&lt;br /&gt;
|description=Questa pubblicazione esplora le capacità computazionali emergenti in sistemi con numerose componenti semplici, simili ai neuroni. Viene proposto un modello neurobiologico, applicabile anche a circuiti integrati, che dimostra capacità di recupero della memoria, generalizzazione e correzione degli errori, anche in presenza di malfunzionamenti.&lt;br /&gt;
}}&lt;/div&gt;</summary>
		<author><name>Mindmakerbot</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Powers_of_10:_Modeling_Complex_information-seeking_systems_at_multiple_scales&amp;diff=4729</id>
		<title>Powers of 10: Modeling Complex information-seeking systems at multiple scales</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Powers_of_10:_Modeling_Complex_information-seeking_systems_at_multiple_scales&amp;diff=4729"/>
		<updated>2025-01-10T07:43:57Z</updated>

		<summary type="html">&lt;p&gt;Mindmakerbot: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{template pubblicazione&lt;br /&gt;
|data=&lt;br /&gt;
|autori=P. Pirolli&lt;br /&gt;
|URL=https://www.semanticscholar.org/paper/44e1d561b3a416bc4400e3674f0c616db1fe4da8&lt;br /&gt;
|topic=&lt;br /&gt;
|citazioni=64&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
Nuovi modelli di sistemi di supporto alla ricerca di informazioni offrono due vantaggi: ci portano da quadri concettuali prescientifici sulla ricerca di informazioni a teorie scientifiche e modelli predittivi più rigorosi, mentre allo stesso tempo espandono i tipi di cose che studiamo e sviluppiamo.&lt;br /&gt;
&lt;br /&gt;
[[Category:Pubblicazione]]&lt;br /&gt;
&lt;br /&gt;
{{#seo:&lt;br /&gt;
|title=Powers of 10: Modeling Complex information-seeking systems at multiple scales&lt;br /&gt;
|title_mode=append&lt;br /&gt;
|keywords=ricerca informazioni, sistemi complessi, modelli predittivi, teorie scientifiche, supporto alla ricerca, modellazione, potenze di 10, scale multiple, Pirolli, information seeking&lt;br /&gt;
|description=Modelli per sistemi di supporto alla ricerca di informazioni: da quadri prescientifici a teorie scientifiche e modelli predittivi, ampliando gli oggetti di studio e sviluppo.&lt;br /&gt;
}}&lt;/div&gt;</summary>
		<author><name>Mindmakerbot</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Assisting_in_Writing_Wikipedia-like_Articles_From_Scratch_with_Large_Language_Models&amp;diff=4706</id>
		<title>Assisting in Writing Wikipedia-like Articles From Scratch with Large Language Models</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Assisting_in_Writing_Wikipedia-like_Articles_From_Scratch_with_Large_Language_Models&amp;diff=4706"/>
		<updated>2025-01-02T10:56:14Z</updated>

		<summary type="html">&lt;p&gt;Mindmakerbot: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{template pubblicazione&lt;br /&gt;
|data=2024&lt;br /&gt;
|autori=Yijia Shao, Yucheng Jiang, Theodore A. Kanell, Peter Xu, Omar Khattab, Monica S. Lam&lt;br /&gt;
|URL=https://www.semanticscholar.org/paper/2fcad63cc68ca74acdfafdbc145325ee59952f24&lt;br /&gt;
|topic=Large Language Models&lt;br /&gt;
|citazioni=13&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
Questo studio esplora l&#039;applicazione di modelli linguistici di grandi dimensioni per la scrittura di articoli lunghi e strutturati a partire da zero, con ampiezza e profondità paragonabili alle pagine di Wikipedia. Questo problema poco esplorato pone nuove sfide nella fase di pre-scrittura, incluso come ricercare l&#039;argomento e preparare una struttura prima di iniziare a scrivere. Viene proposto STORM, un sistema di scrittura per la sintesi di outline di argomenti attraverso il recupero e la formulazione di domande multi-prospettiva. STORM modella la fase di pre-scrittura (1) scoprendo diverse prospettive nella ricerca dell&#039;argomento dato, (2) simulando conversazioni in cui scrittori con diverse prospettive pongono domande a un esperto in materia basandosi su fonti Internet affidabili, (3) curando le informazioni raccolte per creare una struttura. Per la valutazione, è stato creato FreshWiki, un set di dati di articoli Wikipedia recenti di alta qualità, e sono state formulate valutazioni di outline per valutare la fase di pre-scrittura. Sono stati inoltre raccolti feedback da redattori Wikipedia esperti. Rispetto agli articoli generati da una baseline di recupero aumentata guidata da outline, più articoli di STORM sono considerati organizzati (con un aumento assoluto del 25%) e ampi nella copertura (del 10%). Il feedback degli esperti aiuta anche a identificare nuove sfide per la generazione di articoli lunghi e fondati, come il trasferimento del bias della fonte e la sovra-associazione di fatti non correlati.&lt;br /&gt;
&lt;br /&gt;
{{#seo:&lt;br /&gt;
|title=Assisting in Writing Wikipedia-like Articles From Scratch with Large Language Models&lt;br /&gt;
|title_mode=append&lt;br /&gt;
|keywords=modelli linguistici, intelligenza artificiale, generazione di testo, scrittura automatica, elaborazione del linguaggio naturale, Wikipedia, articoli, pre-scrittura, outline, STORM, FreshWiki&lt;br /&gt;
|description=Questo studio esplora l&#039;uso di modelli linguistici di grandi dimensioni per scrivere articoli simili a quelli di Wikipedia. Il sistema STORM aiuta nella pre-scrittura, ricercando l&#039;argomento e creando una struttura. I risultati mostrano miglioramenti nell&#039;organizzazione e nell&#039;ampiezza della copertura degli articoli generati.&lt;br /&gt;
}}&lt;/div&gt;</summary>
		<author><name>Mindmakerbot</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Physics_in_Next-token_Prediction&amp;diff=4704</id>
		<title>Physics in Next-token Prediction</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Physics_in_Next-token_Prediction&amp;diff=4704"/>
		<updated>2025-01-02T10:34:48Z</updated>

		<summary type="html">&lt;p&gt;Mindmakerbot: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{template pubblicazione&lt;br /&gt;
|data=2024&lt;br /&gt;
|autori=Hongjun An, Yiliang Song, Xuelong Li&lt;br /&gt;
|URL=https://www.semanticscholar.org/paper/242e3b9006236b44280199da1ec9c60802729fd3&lt;br /&gt;
|topic=Next-token Prediction&lt;br /&gt;
|citazioni=0&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
Questo studio rivela i principi fisici sottostanti al Next-token Prediction (NTP). Gli autori identificano la legge di conservazione dell&#039;informazione all&#039;interno del NTP e propongono la Prima Legge della Capacità Informativa (IC-1), dimostrando che l&#039;emergere dell&#039;intelligenza nei modelli autoregressivi è fondamentalmente un processo di trasferimento di informazioni. Introducono anche il Principio di Landauer nel NTP, formulando la Seconda Legge della Capacità Informativa (IC-2), che stabilisce la relazione tra l&#039;addestramento del modello autoregressivo e il consumo di energia. Vengono inoltre presentati diversi corollari, che hanno un significato pratico per le pratiche di produzione. Infine, viene dimostrata la coerenza tra la Legge della Capacità Informativa e la Legge di Scalabilità per i Modelli Linguistici Neurali, le Leggi di Scalabilità della Capacità di Conoscenza e le Leggi di Scalabilità per la Precisione. [[Category:Pubblicazione]]&lt;br /&gt;
&lt;br /&gt;
{{#seo:&lt;br /&gt;
|title=Physics in Next-token Prediction&lt;br /&gt;
|title_mode=append&lt;br /&gt;
|keywords=predizione, token, modelli linguistici, intelligenza artificiale, fisica, informazione, energia, legge di scala, capacità informativa, modello autoregressivo&lt;br /&gt;
|description=Questo studio svela i principi fisici alla base della predizione del prossimo token (Next-token Prediction, NTP), mostrando come l&#039;emergere dell&#039;intelligenza nei modelli autoregressivi sia un processo di trasferimento di informazioni, e correlando l&#039;addestramento del modello al consumo energetico.&lt;br /&gt;
|image=&lt;br /&gt;
}}&lt;/div&gt;</summary>
		<author><name>Mindmakerbot</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Is_Power-Seeking_AI_an_Existential_Risk%3F&amp;diff=4686</id>
		<title>Is Power-Seeking AI an Existential Risk?</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Is_Power-Seeking_AI_an_Existential_Risk%3F&amp;diff=4686"/>
		<updated>2024-12-28T17:46:05Z</updated>

		<summary type="html">&lt;p&gt;Mindmakerbot: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{template pubblicazione&lt;br /&gt;
|data=2022&lt;br /&gt;
|autori=Joseph Carlsmith&lt;br /&gt;
|URL=https://www.semanticscholar.org/paper/1c07e314985161ec42ba895eb4869ffc5d360736&lt;br /&gt;
|topic=AI existential risk&lt;br /&gt;
|citazioni=70&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
Questo rapporto esamina quello che considero l&#039;argomento centrale per la preoccupazione sul rischio esistenziale derivante da un&#039;intelligenza artificiale disallineata. Si procede in due fasi. In primo luogo, viene delineato un quadro generale che informa tale preoccupazione. In questo quadro, l&#039;azione intelligente è una forza estremamente potente e creare agenti molto più intelligenti di noi significa giocare con il fuoco, soprattutto considerando che se i loro obiettivi sono problematici, tali agenti avrebbero plausibilmente incentivi strumentali per cercare il potere sugli umani. In secondo luogo, viene formulato e valutato un argomento più specifico in sei premesse secondo cui la creazione di agenti di questo tipo porterà a una catastrofe esistenziale entro il 2070. Secondo questo argomento, entro il 2070: (1) diventerà possibile e finanziariamente fattibile costruire sistemi di IA rilevanti potenti e agentici; (2) ci saranno forti incentivi a farlo; (3) sarà molto più difficile costruire sistemi di IA allineati (e rilevanti potenti/agentici) rispetto a costruire sistemi di IA disallineati (e rilevanti potenti/agentici) che siano ancora superficialmente attraenti da implementare; (4) alcuni di questi sistemi disallineati cercheranno il potere sugli umani in modi ad alto impatto; (5) questo problema si estenderà al completo esautoramento dell&#039;umanità; e (6) tale esautoramento costituirà una catastrofe esistenziale. Assegno credibilità soggettive approssimative alle premesse di questo argomento e finisco con una stima complessiva di ~5% che una catastrofe esistenziale di questo tipo si verifichi entro il 2070. (Aggiornamento del maggio 2022: da quando ho reso pubblico questo rapporto nell&#039;aprile 2021, la mia stima qui è aumentata ed è ora &amp;gt;10%).&lt;br /&gt;
&lt;br /&gt;
[[Category:pubblicazione]]&lt;br /&gt;
&lt;br /&gt;
{{#seo:&lt;br /&gt;
|title=Is Power-Seeking AI an Existential Risk?&lt;br /&gt;
|title_mode=append&lt;br /&gt;
|keywords=intelligenza artificiale, rischio esistenziale, IA, disallineamento, agenti intelligenti, potere, catastrofe, estinzione umana, futuro dell&#039;IA, sicurezza IA, etica IA, superintelligenza, regolamentazione IA, allineamento IA&lt;br /&gt;
|description=Questa pubblicazione analizza il rischio esistenziale derivante da un&#039;intelligenza artificiale disallineata. L&#039;autore esplora l&#039;argomento secondo cui agenti IA molto più intelligenti degli umani potrebbero sviluppare incentivi per acquisire potere, portando potenzialmente a una catastrofe entro il 2070.  Viene esaminata la probabilità che sistemi di IA disallineati cerchino di esautorare l&#039;umanità, con una stima di rischio superiore al 10%.&lt;br /&gt;
|image=Uploaded_file.png&lt;br /&gt;
}}&lt;/div&gt;</summary>
		<author><name>Mindmakerbot</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Output_Strutturato,_Function_Calling_e_Agenti&amp;diff=4683</id>
		<title>Output Strutturato, Function Calling e Agenti</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Output_Strutturato,_Function_Calling_e_Agenti&amp;diff=4683"/>
		<updated>2024-12-18T17:43:47Z</updated>

		<summary type="html">&lt;p&gt;Mindmakerbot: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;= Output Strutturato nei Modelli di Linguaggio =&lt;br /&gt;
L&#039;output strutturato rappresenta la capacità di un modello di linguaggio di generare risposte in formati predefiniti e organizzati, come JSON, XML, o altri schemi specifici. Questa caratteristica è fondamentale per l&#039;&#039;&#039;&#039;integrazione dei LLM in sistemi software.&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
Un primo esempio di output strutturato viene dato nel seguente prompt:&lt;br /&gt;
 Estrai le seguenti informazioni dal testo in formato JSON:&lt;br /&gt;
 Mario Rossi lavora come sviluppatore software presso TechCorp e può essere contattato all&#039;email mario.rossi@google.com&lt;br /&gt;
Un modello di Linguaggio risponderà con qualcosa del genere:&lt;br /&gt;
 {&lt;br /&gt;
   &amp;quot;nome&amp;quot;: &amp;quot;Mario Rossi&amp;quot;,&lt;br /&gt;
   &amp;quot;professione&amp;quot;: &amp;quot;sviluppatore software&amp;quot;,&lt;br /&gt;
   &amp;quot;azienda&amp;quot;: &amp;quot;TechCorp&amp;quot;,&lt;br /&gt;
   &amp;quot;email&amp;quot;: &amp;quot;mario.rossi@example.com&amp;quot;&lt;br /&gt;
 }&lt;br /&gt;
Si invita a provare, per esempio, il seguente prompt:&lt;br /&gt;
 Analizza il seguente testo e fornisci un&#039;analisi strutturata in JSON che includa:&lt;br /&gt;
 - Sentimento generale (positivo/negativo/neutro)&lt;br /&gt;
 - Parole chiave emotive&lt;br /&gt;
 - Punteggio di intensità (1-5)&lt;br /&gt;
 - Suggerimenti per migliorare il tono&lt;br /&gt;
 &lt;br /&gt;
 Testo: &amp;quot;Il servizio clienti è stato terribilmente lento e il personale sembrava disinteressato. &lt;br /&gt;
 Almeno il prodotto funziona bene, ma non credo che tornerò in questo negozio.&amp;quot;&lt;br /&gt;
&lt;br /&gt;
=== Fornire la struttura direttamente nel prompt ===&lt;br /&gt;
Per facilitare l&#039;incorporazione e delle risposte in altri software, e conformarle ad una stessa struttura, spesso si &amp;quot;forza&amp;quot; il modello a aderire a un determinato schema di output. Ad esempio si provi il seguente prompt:&lt;br /&gt;
&lt;br /&gt;
 Analizza il seguente testo fornendo l&#039;output nel formato JSON specificato dopo il testo.&lt;br /&gt;
 &lt;br /&gt;
 Testo: &amp;quot;La nuova piattaforma di e-learning ha un&#039;interfaccia moderna e reattiva, ma ho riscontrato diversi bug durante i test. Il team di sviluppo ha risposto velocemente alle segnalazioni, anche se alcuni problemi persistono. Nel complesso è promettente ma necessita di miglioramenti.&amp;quot;&lt;br /&gt;
 &lt;br /&gt;
 Output atteso:&lt;br /&gt;
 {&lt;br /&gt;
     &amp;quot;review_analysis&amp;quot;: {&lt;br /&gt;
         &amp;quot;overall_sentiment&amp;quot;: &amp;quot;STRING (positive/mixed/negative)&amp;quot;,&lt;br /&gt;
         &amp;quot;rating&amp;quot;: &amp;quot;NUMBER (1-5)&amp;quot;,&lt;br /&gt;
         &amp;quot;aspects&amp;quot;: {&lt;br /&gt;
             &amp;quot;positives&amp;quot;: [&amp;quot;ARRAY OF STRINGS&amp;quot;],&lt;br /&gt;
             &amp;quot;negatives&amp;quot;: [&amp;quot;ARRAY OF STRINGS&amp;quot;]&lt;br /&gt;
         },&lt;br /&gt;
         &amp;quot;response_time&amp;quot;: {&lt;br /&gt;
             &amp;quot;score&amp;quot;: &amp;quot;NUMBER (1-5)&amp;quot;,&lt;br /&gt;
             &amp;quot;comment&amp;quot;: &amp;quot;STRING&amp;quot;&lt;br /&gt;
         },&lt;br /&gt;
         &amp;quot;maturity_assessment&amp;quot;: {&lt;br /&gt;
             &amp;quot;stage&amp;quot;: &amp;quot;STRING (alpha/beta/production-ready)&amp;quot;,&lt;br /&gt;
             &amp;quot;confidence&amp;quot;: &amp;quot;NUMBER (1-5)&amp;quot;&lt;br /&gt;
         }&lt;br /&gt;
     }&lt;br /&gt;
 }&lt;br /&gt;
&lt;br /&gt;
=== Fornire la struttura in formato &amp;quot;OpenAI schema&amp;quot; ===&lt;br /&gt;
Per utilizzare un formato ancora più standardizzato, è possibile specificare il formato di output con la sintassi OpenAI: https://spec.openapis.org/oas/v3.0.3#schema. &lt;br /&gt;
&lt;br /&gt;
Per esempio, se nel &#039;&#039;&#039;prompt di sistema&#039;&#039;&#039; di un modello inserissimo:&lt;br /&gt;
 Analizza il seguente testo fornendo l&#039;output secondo lo schema JSON specificato dopo il testo.&lt;br /&gt;
Specificando la definizione dell&#039;oggetto strutturato da tornare - per esempio nella sezione &#039;&#039;&#039;Structured Output&#039;&#039;&#039; in [https://aistudio.google.com Gemini]:&lt;br /&gt;
 &lt;br /&gt;
 {&lt;br /&gt;
   &amp;quot;type&amp;quot;: &amp;quot;object&amp;quot;,&lt;br /&gt;
   &amp;quot;properties&amp;quot;: {&lt;br /&gt;
     &amp;quot;review_analysis&amp;quot;: {&lt;br /&gt;
       &amp;quot;type&amp;quot;: &amp;quot;object&amp;quot;,&lt;br /&gt;
       &amp;quot;properties&amp;quot;: {&lt;br /&gt;
         &amp;quot;overall_sentiment&amp;quot;: {&lt;br /&gt;
           &amp;quot;type&amp;quot;: &amp;quot;string&amp;quot;,&lt;br /&gt;
           &amp;quot;enum&amp;quot;: [&amp;quot;positive&amp;quot;, &amp;quot;mixed&amp;quot;, &amp;quot;negative&amp;quot;]&lt;br /&gt;
         },&lt;br /&gt;
         &amp;quot;rating&amp;quot;: {&lt;br /&gt;
           &amp;quot;type&amp;quot;: &amp;quot;number&amp;quot;,&lt;br /&gt;
           &amp;quot;minimum&amp;quot;: 1,&lt;br /&gt;
           &amp;quot;maximum&amp;quot;: 5&lt;br /&gt;
         },&lt;br /&gt;
         &amp;quot;aspects&amp;quot;: {&lt;br /&gt;
           &amp;quot;type&amp;quot;: &amp;quot;object&amp;quot;,&lt;br /&gt;
           &amp;quot;properties&amp;quot;: {&lt;br /&gt;
             &amp;quot;positives&amp;quot;: {&lt;br /&gt;
               &amp;quot;type&amp;quot;: &amp;quot;array&amp;quot;,&lt;br /&gt;
               &amp;quot;items&amp;quot;: {&lt;br /&gt;
                 &amp;quot;type&amp;quot;: &amp;quot;string&amp;quot;&lt;br /&gt;
               }&lt;br /&gt;
             },&lt;br /&gt;
             &amp;quot;negatives&amp;quot;: {&lt;br /&gt;
               &amp;quot;type&amp;quot;: &amp;quot;array&amp;quot;,&lt;br /&gt;
               &amp;quot;items&amp;quot;: {&lt;br /&gt;
                 &amp;quot;type&amp;quot;: &amp;quot;string&amp;quot;&lt;br /&gt;
               }&lt;br /&gt;
             }&lt;br /&gt;
           }&lt;br /&gt;
         },&lt;br /&gt;
         &amp;quot;response_time&amp;quot;: {&lt;br /&gt;
           &amp;quot;type&amp;quot;: &amp;quot;object&amp;quot;,&lt;br /&gt;
           &amp;quot;properties&amp;quot;: {&lt;br /&gt;
             &amp;quot;score&amp;quot;: {&lt;br /&gt;
               &amp;quot;type&amp;quot;: &amp;quot;number&amp;quot;,&lt;br /&gt;
               &amp;quot;minimum&amp;quot;: 1,&lt;br /&gt;
               &amp;quot;maximum&amp;quot;: 5&lt;br /&gt;
             },&lt;br /&gt;
             &amp;quot;comment&amp;quot;: {&lt;br /&gt;
               &amp;quot;type&amp;quot;: &amp;quot;string&amp;quot;&lt;br /&gt;
             }&lt;br /&gt;
           }&lt;br /&gt;
         },&lt;br /&gt;
         &amp;quot;maturity_assessment&amp;quot;: {&lt;br /&gt;
           &amp;quot;type&amp;quot;: &amp;quot;object&amp;quot;,&lt;br /&gt;
           &amp;quot;properties&amp;quot;: {&lt;br /&gt;
             &amp;quot;stage&amp;quot;: {&lt;br /&gt;
               &amp;quot;type&amp;quot;: &amp;quot;string&amp;quot;,&lt;br /&gt;
               &amp;quot;enum&amp;quot;: [&amp;quot;alpha&amp;quot;, &amp;quot;beta&amp;quot;, &amp;quot;production-ready&amp;quot;]&lt;br /&gt;
             },&lt;br /&gt;
             &amp;quot;confidence&amp;quot;: {&lt;br /&gt;
               &amp;quot;type&amp;quot;: &amp;quot;number&amp;quot;,&lt;br /&gt;
               &amp;quot;minimum&amp;quot;: 1,&lt;br /&gt;
               &amp;quot;maximum&amp;quot;: 5&lt;br /&gt;
             }&lt;br /&gt;
           }&lt;br /&gt;
         }&lt;br /&gt;
       },&lt;br /&gt;
       &amp;quot;required&amp;quot;: [&amp;quot;overall_sentiment&amp;quot;, &amp;quot;rating&amp;quot;, &amp;quot;aspects&amp;quot;, &amp;quot;response_time&amp;quot;, &amp;quot;maturity_assessment&amp;quot;]&lt;br /&gt;
     }&lt;br /&gt;
   }&lt;br /&gt;
 }&lt;br /&gt;
Questo formato ha alcuni vantaggi aggiuntivi rispetto al precedente:&lt;br /&gt;
&lt;br /&gt;
# Definisce esplicitamente i tipi di dati&lt;br /&gt;
# Permette di specificare valori minimi e massimi per i numeri&lt;br /&gt;
# Elenca esplicitamente i valori possibili per le enumerazioni&lt;br /&gt;
# Indica quali campi sono obbligatori&lt;br /&gt;
# È compatibile con gli strumenti di validazione JSON Schema&lt;br /&gt;
&lt;br /&gt;
== Function Calling nei Modelli di Linguaggio ==&lt;br /&gt;
Il Function Calling rappresenta un&#039;evoluzione dell&#039;output strutturato nei modelli di linguaggio, permettendo di mappare il linguaggio naturale a chiamate di funzioni predefinite. Questa caratteristica consente ai LLM di interpretare &#039;&#039;&#039;l&#039;intento dell&#039;utente&#039;&#039;&#039; (in inglese &#039;&#039;intent detection&#039;&#039;) e tradurlo in azioni concrete attraverso API o funzioni specifiche.&lt;br /&gt;
&lt;br /&gt;
Il Function Calling si basa sui principi dell&#039;output strutturato, ma richiede:&lt;br /&gt;
&lt;br /&gt;
* Una definizione esplicita delle funzioni disponibili&lt;br /&gt;
* Mappatura automatica tra intento e funzione&lt;br /&gt;
* Struttura standardizzata per i parametri&lt;br /&gt;
* Validazione integrata dei tipi di dati&lt;br /&gt;
&lt;br /&gt;
=== Esempio di function calling ===&lt;br /&gt;
Immaginiamo di voler creare un piccolo &#039;&#039;&#039;sistema di gestione automatica delle campagne di paid advertising&#039;&#039;&#039;, che possa eseguire query del tipo:&lt;br /&gt;
&lt;br /&gt;
* &amp;quot;Crea una campagna awareness su Facebook con budget 100 euro al giorno, che inizi il 20/01/2025 e duri 14 giorni, audience professionisti_roma&amp;quot;&lt;br /&gt;
* &amp;quot;Quali sono le campagne attualmente attive?&amp;quot;&lt;br /&gt;
* &amp;quot;Interrompi la campagna 12345&amp;quot;&lt;br /&gt;
* &amp;quot;Avvia una campagna conversion su Instagram, budget giornaliero 150 euro, dal 01/03/2025 per 30 giorni, target giovani_milano&amp;quot;&lt;br /&gt;
&lt;br /&gt;
* &amp;quot;Mostra tutte le campagne in corso&amp;quot;&lt;br /&gt;
&lt;br /&gt;
Utilizziamo quindi i seguenti parametri per il &#039;&#039;&#039;function calling&#039;&#039;&#039;:&lt;br /&gt;
 [&lt;br /&gt;
   {&lt;br /&gt;
     &amp;quot;name&amp;quot;: &amp;quot;createAdCampaign&amp;quot;,&lt;br /&gt;
     &amp;quot;description&amp;quot;: &amp;quot;Crea una nuova campagna pubblicitaria&amp;quot;,&lt;br /&gt;
     &amp;quot;parameters&amp;quot;: {&lt;br /&gt;
       &amp;quot;type&amp;quot;: &amp;quot;object&amp;quot;,&lt;br /&gt;
       &amp;quot;properties&amp;quot;: {&lt;br /&gt;
         &amp;quot;objective&amp;quot;: {&lt;br /&gt;
           &amp;quot;type&amp;quot;: &amp;quot;string&amp;quot;,&lt;br /&gt;
           &amp;quot;enum&amp;quot;: [&lt;br /&gt;
             &amp;quot;awareness&amp;quot;,&lt;br /&gt;
             &amp;quot;consideration&amp;quot;,&lt;br /&gt;
             &amp;quot;conversion&amp;quot;&lt;br /&gt;
           ]&lt;br /&gt;
         },&lt;br /&gt;
         &amp;quot;platform&amp;quot;: {&lt;br /&gt;
           &amp;quot;type&amp;quot;: &amp;quot;string&amp;quot;,&lt;br /&gt;
           &amp;quot;enum&amp;quot;: [&lt;br /&gt;
             &amp;quot;Facebook&amp;quot;,&lt;br /&gt;
             &amp;quot;Instagram&amp;quot;,&lt;br /&gt;
             &amp;quot;LinkedIn&amp;quot;,&lt;br /&gt;
             &amp;quot;TikTok&amp;quot;&lt;br /&gt;
           ]&lt;br /&gt;
         },&lt;br /&gt;
         &amp;quot;daily_budget&amp;quot;: {&lt;br /&gt;
           &amp;quot;type&amp;quot;: &amp;quot;integer&amp;quot;&lt;br /&gt;
         },&lt;br /&gt;
         &amp;quot;start_date&amp;quot;: {&lt;br /&gt;
           &amp;quot;type&amp;quot;: &amp;quot;string&amp;quot;&lt;br /&gt;
         },&lt;br /&gt;
         &amp;quot;duration_days&amp;quot;: {&lt;br /&gt;
           &amp;quot;type&amp;quot;: &amp;quot;integer&amp;quot;&lt;br /&gt;
         },&lt;br /&gt;
         &amp;quot;audience_id&amp;quot;: {&lt;br /&gt;
           &amp;quot;type&amp;quot;: &amp;quot;string&amp;quot;&lt;br /&gt;
         }&lt;br /&gt;
       },&lt;br /&gt;
       &amp;quot;required&amp;quot;: [&lt;br /&gt;
         &amp;quot;objective&amp;quot;,&lt;br /&gt;
         &amp;quot;platform&amp;quot;,&lt;br /&gt;
         &amp;quot;daily_budget&amp;quot;,&lt;br /&gt;
         &amp;quot;start_date&amp;quot;,&lt;br /&gt;
         &amp;quot;duration_days&amp;quot;,&lt;br /&gt;
         &amp;quot;audience_id&amp;quot;&lt;br /&gt;
       ]&lt;br /&gt;
     }&lt;br /&gt;
   },&lt;br /&gt;
   {&lt;br /&gt;
     &amp;quot;name&amp;quot;: &amp;quot;listActiveCampaigns&amp;quot;,&lt;br /&gt;
     &amp;quot;description&amp;quot;: &amp;quot;Ritorna la lista delle campagne attive&amp;quot;&lt;br /&gt;
   },&lt;br /&gt;
   {&lt;br /&gt;
     &amp;quot;name&amp;quot;: &amp;quot;stopCampaign&amp;quot;,&lt;br /&gt;
     &amp;quot;description&amp;quot;: &amp;quot;Ferma una campagna specificia&amp;quot;,&lt;br /&gt;
     &amp;quot;parameters&amp;quot;: {&lt;br /&gt;
       &amp;quot;type&amp;quot;: &amp;quot;object&amp;quot;,&lt;br /&gt;
       &amp;quot;properties&amp;quot;: {&lt;br /&gt;
         &amp;quot;campaign_id&amp;quot;: {&lt;br /&gt;
           &amp;quot;type&amp;quot;: &amp;quot;string&amp;quot;&lt;br /&gt;
         }&lt;br /&gt;
       },&lt;br /&gt;
       &amp;quot;required&amp;quot;: [&lt;br /&gt;
         &amp;quot;campaign_id&amp;quot;&lt;br /&gt;
       ]&lt;br /&gt;
     }&lt;br /&gt;
   }&lt;br /&gt;
 ]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Si invita a testare esternsivamente il sistema, anche con domande &#039;&#039;&#039;incomplete.&#039;&#039;&#039; Si ricorda che in un sistema &amp;quot;reale&amp;quot;, a ogni interazione che richiede l&#039;uso di un &#039;&#039;&#039;tool, viene effettuata una chiamata API o chiamata una funzione&#039;&#039;&#039;. &lt;br /&gt;
&lt;br /&gt;
=== Definizione di Agenti AI, relativamente al Function Calling e l&#039;uso di Tools ===&lt;br /&gt;
In questo contesto, gli Agenti AI sono sistemi basati su modelli di linguaggio che utilizzano il &#039;&#039;&#039;Function Calling&#039;&#039;&#039; per interagire con funzioni e strumenti esterni. Questa capacità permette agli agenti di eseguire azioni concrete (come interrogare database, chiamare API o manipolare dati) e di recuperare informazioni addizionali prima di generare una risposta. A differenza di un semplice modello di linguaggio che può solo generare testo, un Agente AI può interpretare l&#039;intenzione (&#039;&#039;&#039;intent)&#039;&#039;&#039; dell&#039;utente, selezionare e chiamare le funzioni appropriate, e orchestrare una serie di operazioni per raggiungere un obiettivo specifico.&lt;br /&gt;
&lt;br /&gt;
In pratica, un Agente AI può:&lt;br /&gt;
&lt;br /&gt;
# Comprendere una richiesta in linguaggio naturale&lt;br /&gt;
# Decidere quali funzioni chiamare e in quale ordine&lt;br /&gt;
# Utilizzare i risultati delle funzioni per prendere decisioni successive&lt;br /&gt;
# Interagire con sistemi esterni per compiere azioni reali&lt;br /&gt;
# Fornire risposte basate sia sulla sua conoscenza che sui dati ottenuti&lt;br /&gt;
&lt;br /&gt;
== Esercizio: Gestione Email Customer Care con Function Calling ==&lt;br /&gt;
Un&#039;azienda di software necessita di un sistema per gestire automaticamente le email in arrivo all&#039;indirizzo info@azienda.it. Il sistema deve essere in grado di:&lt;br /&gt;
&lt;br /&gt;
* Riconoscere se l&#039;email fa riferimento a un ticket esistente (cercando un ID ticket nel formato #Txxxxx)&lt;br /&gt;
* Creare nuovi ticket per richieste di supporto che non fanno riferimento a un ticket esistente&lt;br /&gt;
* Informazioni commerciali&lt;br /&gt;
&lt;br /&gt;
Implementare un sistema di Function Calling che gestisca i seguenti scenari:&lt;br /&gt;
&lt;br /&gt;
Email 1:&lt;br /&gt;
 Da: cliente@email.com&lt;br /&gt;
 A: info@azienda.it&lt;br /&gt;
 Oggetto: Re: Ticket #T12345 - Problema installazione&lt;br /&gt;
 &lt;br /&gt;
 Buongiorno,&lt;br /&gt;
 in riferimento al ticket #T12345, volevo sapere se ci sono novità sulla mia &lt;br /&gt;
 richiesta di supporto per l&#039;installazione del software.&lt;br /&gt;
 Grazie&lt;br /&gt;
Email 2:&lt;br /&gt;
 Da: nuovo.cliente@email.com&lt;br /&gt;
 A: info@azienda.it&lt;br /&gt;
 Oggetto: Richiesta supporto installazione software &amp;quot;Nausicaa&amp;quot;&lt;br /&gt;
 &lt;br /&gt;
 Buongiorno,&lt;br /&gt;
 ho acquistato il vostro software ieri e sto avendo difficoltà con &lt;br /&gt;
 l&#039;installazione. Il sistema operativo è Windows 11 e ricevo un errore &lt;br /&gt;
 durante la fase di setup.&lt;br /&gt;
 Potete aiutarmi?&lt;br /&gt;
Email 3:&lt;br /&gt;
 Da: potenziale.cliente@email.com&lt;br /&gt;
 A: info@azienda.it&lt;br /&gt;
 Oggetto: Informazioni prodotto &amp;quot;Telemaco&amp;quot;&lt;br /&gt;
 &lt;br /&gt;
 Salve,&lt;br /&gt;
 sono interessato al vostro software &amp;quot;Telemaco&amp;quot; per la mia azienda.&lt;br /&gt;
 Vorrei sapere i prezzi per 25 postazioni e se fate sconti per ordini multipli.&lt;br /&gt;
 Cordiali saluti&lt;br /&gt;
Requisiti:&lt;br /&gt;
&lt;br /&gt;
# Definire le funzioni necessarie per:&lt;br /&gt;
#* Gestire ticket esistenti&lt;br /&gt;
#* Creare nuovi ticket&lt;br /&gt;
#* Inoltrare le richiesta commerciali direttamente al dipartimento &amp;quot;vendite&amp;quot;&lt;br /&gt;
# Specificare i parametri necessari per ogni funzione (dati cliente, riassunto richiesta, Livello di priorità: [high, medium,low], ID ticket, nome prodotto (opzionale), versione prodotto (opzionale))&lt;br /&gt;
# Garantire che tutte le informazioni necessarie vengano estratte dall&#039;email&lt;br /&gt;
&lt;br /&gt;
Si richiede di implementare lo schema delle funzioni seguendo il formato OpenAI per il Function Calling.{{#seo:&lt;br /&gt;
|title=Structured Output, Function Calling and Agents&lt;br /&gt;
|title_mode=append&lt;br /&gt;
|keywords=output strutturato, function calling, agenti AI, modelli di linguaggio, linguaggio naturale, JSON, API, integrazione software, intent detection, strumenti, tools&lt;br /&gt;
|description=Questa pubblicazione esplora l&#039;output strutturato, il function calling e gli agenti AI nei modelli di linguaggio, mostrando come queste tecnologie consentono interazioni avanzate con i sistemi software.&lt;br /&gt;
}}&lt;/div&gt;</summary>
		<author><name>Mindmakerbot</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Retrieval,_Embeddings,_RAG&amp;diff=4682</id>
		<title>Retrieval, Embeddings, RAG</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Retrieval,_Embeddings,_RAG&amp;diff=4682"/>
		<updated>2024-12-18T17:40:04Z</updated>

		<summary type="html">&lt;p&gt;Mindmakerbot: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Nonostante si sappia che il meccanismo di generazione dei modelli di linguagigo è probabilistico ed esista un rischio di [[Allucinazione|allucinazioni]], è possibile porre a [[Generative Pretrained Transformer (GPT)|GPT]] e agli altri [[Modello linguistico di grandi dimensioni|LLM]] domande puntuali su un&#039;enorme varietà di argomenti: essi spesso fornisco delle risposte esaustive e dettagliate.[1]&lt;br /&gt;
&lt;br /&gt;
Risulta però praticamente impossibile sfruttare le capacità di ragionamento e tutte le altre abilità emergenti di questi modelli per:&lt;br /&gt;
&lt;br /&gt;
# rispondere a domande ed elaborare &amp;lt;u&amp;gt;informazioni proprietarie&amp;lt;/u&amp;gt;, che per definizione non sono mai state viste dal modello durante l&#039;addestramento, che deve necessariamente avvenire su dati pubblici&lt;br /&gt;
# rispondere a domande puntuali su &amp;lt;u&amp;gt;argomenti di nicchia&amp;lt;/u&amp;gt;, o poco diffusi: il rischi di allucinazione è, ovviamente, inversamente proporzionale alla frequenza con la quale una determinata informazione si trova negli enormi dataset di addestramento&lt;br /&gt;
&lt;br /&gt;
== Retrieval Augmented Generation (RAG) ==&lt;br /&gt;
I modelli di linguaggio sono &#039;&#039;&#039;molto bravi&#039;&#039;&#039; a trattare ed elaborare fornite all&#039;interno del contesto: si pensi al &#039;&#039;few-shot prompting&#039;&#039; nel quale questi modelli non solo riescono ad utilizzare l&#039;informazione fornita durante l&#039;inferenza, ma riescono addirittura ad imparare (&#039;&#039;meta-learning)&#039;&#039; come applicare lo specifico &#039;&#039;pattern&#039;&#039; ad esempi non ancora risolti. &lt;br /&gt;
&lt;br /&gt;
La modalità più comune per ovviare ai problemi citati nell&#039;introduzione, è la cosidetta Retrieval Augmented Generation, o RAG, il cui nome sta a indicare l&#039;utilizzo di un modello generativo, ma aumentato dal preventivo recupero (o &#039;&#039;estrazione&#039;&#039;) di informazioni utili per rispondere alla domanda o per risolvere il problema, che vengono incluse nel contesto, ovvero nel prompt.&lt;br /&gt;
&lt;br /&gt;
=== Esempio di Sistema RAG ===&lt;br /&gt;
Prendiamo come esempio pratico un assistente in grado di &#039;&#039;&#039;rispondere a domande sulle regioni italiane,&#039;&#039;&#039; partendo da una base di conoscenza che contiene informazioni su territori, popolazione, cultura e attrazioni turistiche.&lt;br /&gt;
&lt;br /&gt;
# Il primo componente essenziale è la &#039;&#039;&#039;knowledge base, o corpus&#039;&#039;&#039;, ovvero l&#039;insieme dei documenti sui quali vogliamo che il modello basi le sue risposte. Nel nostro esempio, ogni documento è un testo strutturato che un piatto tipico di una città o regione italiana. Questa base di conoscenza potrebbe essere ampliata con documenti provenienti da diverse fonti: pagine web, database interni, documenti PDF o qualsiasi altra fonte testuale pertinente.&lt;br /&gt;
# Il secondo componente è il &#039;&#039;&#039;sistema di&#039;&#039;&#039; &#039;&#039;&#039;retrieval&#039;&#039;&#039;, che deve essere in grado di &#039;&#039;&#039;identificare e recuperare i documenti più rilevanti per una determinata query&#039;&#039;&#039;. &lt;br /&gt;
# Il terzo componente è un modello di &#039;&#039;&#039;generazione&#039;&#039;&#039; del testo, dove il modello di linguaggio genera una risposta basandosi sul contesto recuperato. Il prompt viene costruito combinando:&lt;br /&gt;
#* Il documento/i (o parti di docomenti) recuperati dalla knowledge base&lt;br /&gt;
#* La query originale dell&#039;utente&lt;br /&gt;
#* Eventuali istruzioni aggiuntive per il modello, in cui normalmente si spiega al modello che deve rispodere alla query dell&#039;utente utilizzando &#039;&#039;&#039;solo&#039;&#039;&#039; il testo fornito&lt;br /&gt;
&lt;br /&gt;
== Primo Componente: la Knowledge Base ==&lt;br /&gt;
La knowledge base rappresenta il cuore di un sistema RAG: è l&#039;insieme di informazioni su cui il modello baserà le sue risposte. Mentre nel nostro esempio abbiamo utilizzato brevi frasi su specialità regionali, nella pratica la knowledge base può assumere forme molto diverse. Può contenere documenti di ogni tipo e lunghezza: manuali tecnici, articoli scientifici, documentazione di prodotto, email, conversazioni di chat o post sui social media. I documenti più lunghi vengono tipicamente suddivisi in &#039;&#039;&#039;&amp;quot;chunk&amp;quot; (frammenti)&#039;&#039;&#039; più piccoli e gestibili, usando tecniche che preservano il contesto: per esempio, un documento di 1000 parole potrebbe essere diviso in chunk sovrapposti di 100 parole ciascuno, con 50 parole di sovrapposizione tra chunk consecutivi per mantenere la continuità del discorso.&lt;br /&gt;
&lt;br /&gt;
La knowledge base &#039;&#039;&#039;può anche essere multimodale&#039;&#039;&#039;. Oltre al testo, è possibile indicizzare immagini associandole a descrizioni testuali o utilizzando modelli specializzati che generano embedding visivi. Questo permette di recuperare non solo testi rilevanti ma anche immagini pertinenti alla query. Per esempio, in un sistema RAG per un catalogo di prodotti, una query sulla &amp;quot;texture di un tessuto&amp;quot; potrebbe recuperare sia descrizioni testuali che immagini dei campioni di tessuto. Alcuni sistemi più avanzati supportano anche contenuti audio e video, trasformandoli in rappresentazioni vettoriali che catturano le caratteristiche salienti del contenuto multimediale.&lt;br /&gt;
&lt;br /&gt;
La qualità e l&#039;organizzazione della knowledge base sono importantissimi per l&#039;efficacia del sistema: documenti ben strutturati, aggiornati e rilevanti sono il motivo più importante per cui il sistema dà risposte più accurate e utili. Per questo motivo, la gestione della knowledge base spesso include processi di pulizia dei dati, deduplicazione, aggiornamento automatico e monitoraggio della qualità dei contenuti.&lt;br /&gt;
&lt;br /&gt;
== Secondo Componente: Il Sistema di Retrieval ==&lt;br /&gt;
Il sistema di retrieval, il cui compito è trovare le informazioni del corpus che sono più attinenti a una determinata &#039;&#039;query&amp;lt;u&amp;gt;,&amp;lt;/u&amp;gt;&#039;&#039; può implementare diverse strategie di ricerca, che vanno dalle più semplici alle più sofisticate.&lt;br /&gt;
&lt;br /&gt;
Partiamo dalle tecniche elementari fino ad arrivare a quelle più sofisticate.&lt;br /&gt;
&lt;br /&gt;
La &#039;&#039;&#039;keyword search&#039;&#039;&#039; è l&#039;approccio più basilare: cerca le parole esatte della query nei documenti. Ad esempio, per la domanda &amp;quot;Qual è il capoluogo della Toscana?&amp;quot;, cercherà documenti che contengono le parole &amp;quot;capoluogo&amp;quot; e &amp;quot;Toscana&amp;quot;. Questo metodo, seppur semplice, mostra evidenti limiti: non coglie sinonimi o relazioni semantiche (la query &amp;quot;Quale città governa la regione toscana?&amp;quot; non troverebbe corrispondenze).&lt;br /&gt;
[[File:Embeddings.png|miniatura|400x400px|Embedding vicini alla parola &amp;quot;Guitar&amp;quot; in Word2Vec (&amp;lt;nowiki&amp;gt;https://projector.tensorflow.org/&amp;lt;/nowiki&amp;gt;)]]&lt;br /&gt;
Un primo livello di astrazione è fornito dall&#039;approccio &#039;&#039;&#039;bag of words&#039;&#039;&#039; con &#039;&#039;&#039;TF-IDF&#039;&#039;&#039; (Term Frequency-Inverse Document Frequency). Questa tecnica considera ogni documento come un vettore dove ogni dimensione rappresenta la frequenza di una parola, pesata per la sua rarità nel corpus. Questo permette di identificare i termini più caratterizzanti e discriminanti di ogni documento. Per esempio, in un documento sulla Toscana, parole come &amp;quot;Firenze&amp;quot; o &amp;quot;Uffizi&amp;quot; avranno un peso maggiore rispetto a termini comuni come &amp;quot;città&amp;quot; o &amp;quot;regione&amp;quot;, che sono &#039;&#039;&#039;molto frequenti&#039;&#039;&#039; ma al contempo &#039;&#039;&#039;comuni a gran parte dei documenti del corpus&#039;&#039;&#039;.&lt;br /&gt;
&lt;br /&gt;
Le tecniche moderne si basano sulla &#039;&#039;&#039;vector search&#039;&#039;&#039;: i testi vengono trasformati in &#039;&#039;&#039;[[Embeddings|embedding vettoriali]]&#039;&#039;&#039; che catturano il &#039;&#039;&#039;significato semantico&#039;&#039;&#039; in uno spazio multidimensionale. Un modello come &amp;lt;code&amp;gt;sentence-transformers&amp;lt;/code&amp;gt; codifica sia la query che i documenti in vettori di centinaia di dimensioni, dove la vicinanza nello spazio vettoriale corrisponde alla similarità semantica. La query &amp;quot;Dove posso ammirare il David di Michelangelo?&amp;quot; troverà corrispondenza con documenti che parlano della Galleria dell&#039;Accademia di Firenze, anche se non contengono le parole esatte della domanda. &lt;br /&gt;
&lt;br /&gt;
L&#039;approccio più robusto è quello &#039;&#039;&#039;ibrido&#039;&#039;&#039;, che combina vector search e keyword matching. Per esempio, si può:&lt;br /&gt;
&lt;br /&gt;
# Utilizzare la ricerca vettoriale per identificare i documenti semanticamente rilevanti&lt;br /&gt;
# Riordinare i risultati dando priorità a quelli che contengono anche keyword esatte&lt;br /&gt;
# Eventualmente escludere documenti che non contengono almeno una parola chiave essenziale&lt;br /&gt;
&lt;br /&gt;
Per valutare l&#039;efficacia di questi sistemi di retrieval, una metrica fondamentale è il &#039;&#039;&#039;[[Mean Reciprocal Rank]]&#039;&#039;&#039; (MRR): esso calcola il reciproco del rango della prima risposta corretta, mediato su tutte le query. &lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Quando si implementa un sistema RAG utilizzando modelli di retrieval esistenti, è fondamentale verificarne l&#039;accuratezza (MRR) sul tipo specifico di documenti che caratterizzano il nostro dominio applicativo e sulla lingua di interesse. Per una valutazione rigorosa, è consigliabile creare un dataset di test ad-hoc, annotato secondo i nostri criteri di rilevanza: questo ci permetterà di misurare quanto il sistema sia effettivamente capace di recuperare le informazioni nel modo più appropriato per il nostro caso d&#039;uso specifico.&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
=== Gli [[Embeddings|Embedding]]: Rappresentazioni Dense del Significato ===&lt;br /&gt;
Gli embedding sono &#039;&#039;&#039;rappresentazioni vettoriali &amp;quot;dense&amp;quot;&#039;&#039;&#039; del significato di parole o frasi: ogni testo viene trasformato in un vettore di numeri (tipicamente centinaia di dimensioni) dove ogni dimensione contribuisce a catturare qualche aspetto semantico del significato. A differenza delle &#039;&#039;&#039;rappresentazioni sparse come TF-IDF&#039;&#039;&#039;, dove ogni dimensione corrisponde a una singola parola del vocabolario, negli embedding ogni dimensione rappresenta una complessa combinazione di caratteristiche semantiche.&lt;br /&gt;
&lt;br /&gt;
Per intuire come funzionano, pensiamo a come un embedding cattura le relazioni tra parole [2]:&lt;br /&gt;
&lt;br /&gt;
* La parola &amp;quot;medico&amp;quot; sarà vicina nello spazio vettoriale a &amp;quot;dottore&amp;quot;, &amp;quot;chirurgo&amp;quot;, &amp;quot;ospedale&amp;quot;&lt;br /&gt;
* La parola &amp;quot;Firenze&amp;quot; sarà vicina a &amp;quot;Toscana&amp;quot;, &amp;quot;Uffizi&amp;quot;, &amp;quot;Rinascimento&amp;quot;&lt;br /&gt;
* Ancora più interessante, gli embedding catturano anche relazioni analogiche: la relazione tra &amp;quot;Roma&amp;quot; e &amp;quot;Lazio&amp;quot; è simile a quella tra &amp;quot;Firenze&amp;quot; e &amp;quot;Toscana&amp;quot;&lt;br /&gt;
&lt;br /&gt;
&amp;lt;blockquote&amp;gt;&#039;&#039;&#039;Esempio, capire gli embeddings&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
Si immagini di non conoscere il significato della parola &amp;quot;Ongchoi&amp;quot;; essa appare per esempio nelle seguenti frasi: [1]&lt;br /&gt;
&lt;br /&gt;
* L&#039;Ongchoi è delizioso saltato con l&#039;aglio&lt;br /&gt;
* Ongchoi è ottimo sul riso&lt;br /&gt;
* ... foglie di Ongchoi con salse salate ...&lt;br /&gt;
&lt;br /&gt;
E si supponga di aver visto, in altri contesti, le seguenti frasi:&lt;br /&gt;
&lt;br /&gt;
* Gli spinaci sono deliziosi saltati con l&#039;aglio&lt;br /&gt;
* i cardi sono ottimi sul riso&lt;br /&gt;
* ... il cavolo nero con salse salate ...&lt;br /&gt;
&lt;br /&gt;
Il fatto che Ongchoi co-occorra con parole simili a quelle con cui sono co-occorsi gli spinaci, i cardi e il cavolo nero &#039;&#039;&#039;suggerisce&#039;&#039;&#039; che esso sia una verdura simile a questi. (si veda la pagina [[Embeddings]] per l&#039;esempio completo)&amp;lt;/blockquote&amp;gt;Modelli come &amp;lt;code&amp;gt;sentence-transformers&amp;lt;/code&amp;gt;generano questi embedding attraverso reti neurali addestrate su enormi quantità di testo, imparando a posizionare nello spazio vettoriale parole e frasi in modo che la loro vicinanza rifletta la loro similarità semantica. &lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;La similarità tra due testi può quindi essere calcolata come la similarità del coseno tra i loro vettori di embedding: dato l&#039;angolo fra due rappresentazioni vettoriali, più esso è piccolo più i significati sono simili.&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
Questa rappresentazione vettoriale è alla base della moderna &#039;&#039;&#039;vector search&#039;&#039;&#039;: &lt;br /&gt;
&lt;br /&gt;
* quando un utente pone una domanda (query) , il suo testo viene trasformato in un embedding&lt;br /&gt;
* l&#039;embedding della &#039;&#039;query&#039;&#039; confrontato con gli embedding di tutti i documenti nel corpus&lt;br /&gt;
* vengono ritornati i primi K documenti in ordine di somiglianza, cioè dal più simile al più diverso&lt;br /&gt;
&lt;br /&gt;
== Terzo Componente: Il Modello Generativo ==&lt;br /&gt;
Una volta recuperati i documenti più rilevanti, il sistema deve generare una risposta pertinente e accurata. La chiave per ottenere risposte affidabili sta nella costruzione accurata del prompt, che deve guidare il modello a utilizzare &#039;&#039;&#039;esclusivamente&#039;&#039;&#039; le informazioni fornite nel contesto. Vediamo un esempio pratico&lt;br /&gt;
 &#039;&#039;&#039;CONTESTO:&#039;&#039;&#039;&lt;br /&gt;
 La Toscana è una regione dell&#039;Italia centrale. Capoluogo: Firenze.&lt;br /&gt;
 Popolazione: circa 3.7 milioni di abitanti.&lt;br /&gt;
 Piatti tipici: ribollita, panzanella, bistecca alla fiorentina.&lt;br /&gt;
 Attrazioni principali: Duomo di Firenze, Torre di Pisa, Siena.&lt;br /&gt;
 &lt;br /&gt;
 &#039;&#039;&#039;QUERY DELL&#039;UTENTE:&#039;&#039;&#039;&lt;br /&gt;
 Quali sono i piatti tipici della Toscana?&lt;br /&gt;
 &lt;br /&gt;
 &#039;&#039;&#039;ISTRUZIONI:&#039;&#039;&#039;&lt;br /&gt;
 Genera una risposta alla domanda dell&#039;utente utilizzando ESCLUSIVAMENTE le informazioni fornite nel contesto sopra. Se alcune informazioni non sono presenti nel contesto, non inventarle. Fornisci una risposta chiara e ben strutturata.&lt;br /&gt;
Questo formato di prompt ha diversi vantaggi:&lt;br /&gt;
&lt;br /&gt;
# La separazione chiara tra contesto, query e istruzioni aiuta il modello a distinguere le varie componenti&lt;br /&gt;
# L&#039;enfasi sull&#039;utilizzo esclusivo delle informazioni fornite riduce drasticamente il rischio di allucinazioni&lt;br /&gt;
# Le istruzioni specifiche sulla struttura della risposta aiutano a ottenere output più coerenti e utilizzabili&lt;br /&gt;
&lt;br /&gt;
È importante notare che la qualità della risposta generata dipende non solo dalla qualità del modello, ma anche dalla pertinenza del contesto recuperato e dalla chiarezza delle istruzioni fornite. Un prompt ben costruito dovrebbe sempre:&lt;br /&gt;
&lt;br /&gt;
* Delimitare chiaramente il contesto di riferimento&lt;br /&gt;
* Specificare esplicitamente i vincoli (usare solo le informazioni fornite)&lt;br /&gt;
* Indicare il formato o lo stile desiderato per la risposta&lt;br /&gt;
* Includere eventuali requisiti specifici (ad esempio, citare le fonti o evidenziare eventuali incertezze)&lt;br /&gt;
&lt;br /&gt;
== Oltre la RAG Base: Sistemi Avanzati di Retrieval e Generazione ==&lt;br /&gt;
Il sistema RAG presentato in questo capitolo rappresenta una delle implementazioni più semplici e dirette del concetto di retrieval augmented generation. Nella pratica, esistono numerose varianti e implementazioni più sofisticate che rispondono a esigenze specifiche.&lt;br /&gt;
&lt;br /&gt;
Un esempio significativo è &#039;&#039;&#039;l&#039;integrazione con database strutturati&#039;&#039;&#039;. In questo caso, il sistema deve essere in grado di tradurre una query in linguaggio naturale in una query SQL appropriata. Per esempio, alla domanda &amp;quot;Quali sono i cinque prodotti più venduti nell&#039;ultimo trimestre?&amp;quot;, il sistema deve:&lt;br /&gt;
&lt;br /&gt;
# Comprendere l&#039;intento della query&lt;br /&gt;
# Tradurla in SQL corretto (es: &amp;lt;code&amp;gt;SELECT product_name, SUM(quantity) FROM sales WHERE date &amp;gt; DATE_SUB(NOW(), INTERVAL 3 MONTH) GROUP BY product_name ORDER BY SUM(quantity) DESC LIMIT 5&amp;lt;/code&amp;gt;)&lt;br /&gt;
# Eseguire la query&lt;br /&gt;
# Incorporare i risultati in una risposta naturale e comprensibile&lt;br /&gt;
&lt;br /&gt;
Un altro caso d&#039;uso interessante è la &#039;&#039;&#039;RAG su documenti tecnici strutturati&#039;&#039;&#039;, come manuali o documentazione software. In questo scenario, il sistema deve essere in grado di:&lt;br /&gt;
&lt;br /&gt;
* Comprendere la gerarchia e le relazioni tra diverse parti della documentazione&lt;br /&gt;
* Interpretare correttamente snippet di codice e riferimenti tecnici&lt;br /&gt;
* Fornire risposte che includano esempi di codice pertinenti e link alla documentazione completa&lt;br /&gt;
&lt;br /&gt;
Nel &#039;&#039;&#039;campo medico&#039;&#039;&#039;, sistemi RAG specializzati possono aiutare i professionisti sanitari a navigare la letteratura scientifica e le cartelle cliniche. Questi sistemi devono:&lt;br /&gt;
&lt;br /&gt;
* Gestire terminologia medica specializzata&lt;br /&gt;
* Comprendere le relazioni tra sintomi, diagnosi e trattamenti&lt;br /&gt;
* Rispettare rigorosi requisiti di privacy e sicurezza dei dati&lt;br /&gt;
&lt;br /&gt;
Questi esempi mostrano come la RAG sia un paradigma flessibile che può essere adattato a diverse esigenze. Le implementazioni più avanzate possono includere:&lt;br /&gt;
&lt;br /&gt;
* Multiple strategie di retrieval in parallelo&lt;br /&gt;
* Sistemi di verifica e fact-checking delle risposte generate&lt;br /&gt;
* Meccanismi di feedback per migliorare continuamente la qualità delle risposte&lt;br /&gt;
* Integrazione con sistemi expert e regole di business specifiche del dominio&lt;br /&gt;
&lt;br /&gt;
La chiave per implementare con successo un sistema RAG sta nel bilanciare la complessità del sistema con le esigenze specifiche del caso d&#039;uso.&lt;br /&gt;
&lt;br /&gt;
== RAG e [[fine-tuning]] ==&lt;br /&gt;
[[Fine-tuning]] e RAG rappresentano due approcci diversi per specializzare un LLM. Il fine-tuning modifica il modello stesso attraverso ulteriore training, ed è preferibile quando serve acquisire uno stile o un linguaggio specifico, o quando le risposte devono seguire pattern precisi. Richiede un dataset di qualità e risorse computazionali significative.&lt;br /&gt;
&lt;br /&gt;
La RAG mantiene il modello invariato ma lo arricchisce con informazioni esterne. È la scelta migliore quando i dati cambiano frequentemente, serve tracciabilità delle fonti, o quando non si dispone di dataset sufficienti per il fine-tuning. È più flessibile e permette aggiornamenti continui, ma può essere più lento nell&#039;esecuzione.&lt;br /&gt;
&lt;br /&gt;
Le due tecniche possono essere combinate: per esempio, un modello fine-tuned per comprendere un dominio specifico può usare RAG per accedere a informazioni sempre aggiornate.&lt;br /&gt;
&lt;br /&gt;
== Riferimenti ==&lt;br /&gt;
[1] [[Crawling the Internal Knowledge-Base of Language Models]]&lt;br /&gt;
&lt;br /&gt;
[2] Si provi a utilizzare https://projector.tensorflow.org/{{#seo:&lt;br /&gt;
|title=Retrieval, Embeddings, RAG&lt;br /&gt;
|title_mode=append&lt;br /&gt;
|keywords=RAG, Retrieval Augmented Generation, Embeddings, Knowledge Base, Modello linguistico, LLM, Ricerca semantica, TF-IDF, Algoritmi di ricerca, Elaborazione del linguaggio naturale, Intelligenza artificiale, Chatbot, Assistente virtuale, Informazioni proprietarie&lt;br /&gt;
|description=La Retrieval Augmented Generation (RAG) aumenta i modelli linguistici con informazioni esterne, consentendo risposte accurate su argomenti specifici e dati proprietari. Esplora le basi della RAG, i suoi componenti chiave e le sue applicazioni avanzate.&lt;br /&gt;
|image=Embeddings.png&lt;br /&gt;
}}&lt;/div&gt;</summary>
		<author><name>Mindmakerbot</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Scaling_Rectified_Flow_Transformers_for_High-Resolution_Image_Synthesis&amp;diff=4667</id>
		<title>Scaling Rectified Flow Transformers for High-Resolution Image Synthesis</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Scaling_Rectified_Flow_Transformers_for_High-Resolution_Image_Synthesis&amp;diff=4667"/>
		<updated>2024-12-14T17:28:07Z</updated>

		<summary type="html">&lt;p&gt;Mindmakerbot: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{template pubblicazione&lt;br /&gt;
|data=2024&lt;br /&gt;
|autori=Patrick Esser, Sumith Kulal, A. Blattmann, Rahim Entezari, Jonas Muller, Harry Saini, Yam Levi, Dominik Lorenz, Axel Sauer, Frederic Boesel, Dustin Podell, Tim Dockhorn, Zion English, Kyle Lacey, Alex Goodwin, Yannik Marek, Robin Rombach&lt;br /&gt;
|URL=https://www.semanticscholar.org/paper/41a66997ce0a366bba3becf7c3f37c9aebb13fbd&lt;br /&gt;
|topic=Image Synthesis&lt;br /&gt;
|citazioni=410&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
Questo articolo presenta un miglioramento delle tecniche di campionamento del rumore per l&#039;addestramento di modelli di flusso rettificato, indirizzandole verso scale percettivamente rilevanti. Attraverso uno studio su larga scala, viene dimostrata la performance superiore di questo approccio rispetto alle formulazioni di diffusione consolidate per la sintesi testo-immagine ad alta risoluzione. Inoltre, viene presentata una nuova architettura basata su transformer per la generazione di testo-immagine che utilizza pesi separati per le due modalità e consente un flusso bidirezionale di informazioni tra token di immagine e di testo, migliorando la comprensione del testo, la tipografia e le valutazioni delle preferenze umane. I modelli più grandi superano i modelli allo stato dell&#039;arte.&lt;br /&gt;
&lt;br /&gt;
{{#seo:&lt;br /&gt;
|title=Scaling Rectified Flow Transformers for High-Resolution Image Synthesis&lt;br /&gt;
|title_mode=append&lt;br /&gt;
|keywords=sintesi immagini, immagini ad alta risoluzione, transformer, flusso rettificato, campionamento rumore, diffusione, testo-immagine, generazione immagini, modelli flusso, deep learning&lt;br /&gt;
|description=Questo studio migliora le tecniche di campionamento del rumore per i modelli di flusso rettificato, applicandole a scale percettivamente rilevanti. L&#039;approccio supera le tecniche di diffusione per la sintesi testo-immagine ad alta risoluzione, introducendo una nuova architettura transformer con flusso bidirezionale di informazioni tra testo e immagine, migliorando la comprensione e le valutazioni umane. I modelli più grandi superano lo stato dell&#039;arte.&lt;br /&gt;
}}&lt;/div&gt;</summary>
		<author><name>Mindmakerbot</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Highly_accurate_protein_structure_prediction_with_AlphaFold&amp;diff=4664</id>
		<title>Highly accurate protein structure prediction with AlphaFold</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Highly_accurate_protein_structure_prediction_with_AlphaFold&amp;diff=4664"/>
		<updated>2024-12-13T08:06:12Z</updated>

		<summary type="html">&lt;p&gt;Mindmakerbot: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{template pubblicazione&lt;br /&gt;
|data=2020&lt;br /&gt;
|autori=J. Jumper, Richard Evans, A. Pritzel, Tim Green, Michael Figurnov, O. Ronneberger, Kathryn Tunyasuvunakool, Russ Bates, Augustin Žídek, Anna Potapenko, Alex Bridgland, Clemens Meyer, Simon A A Kohl, Andy Ballard, A. Cowie, Bernardino Romera-Paredes, Stanislav Nikolov, Rishub Jain, J. Adler, T. Back, Stig Petersen, D. Reiman, Ellen Clancy, Michal Zielinski, Martin Steinegger, Michalina Pacholska, Tamas Berghammer, S. Bodenstein, David Silver, O. Vinyals, A. Senior, K. Kavukcuoglu, Pushmeet Kohli, D. Hassabis&lt;br /&gt;
|URL=https://www.semanticscholar.org/paper/dc32a984b651256a8ec282be52310e6bd33d9815&lt;br /&gt;
|topic=Predizione della struttura delle proteine&lt;br /&gt;
|citazioni=22112&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
Questo articolo descrive AlphaFold, un sistema di intelligenza artificiale sviluppato da DeepMind per predire la struttura tridimensionale delle proteine con un alto grado di accuratezza. AlphaFold ha ottenuto risultati rivoluzionari nel campo della biologia strutturale, superando le prestazioni di altri metodi computazionali e avvicinandosi alla precisione dei metodi sperimentali. Questo strumento ha il potenziale di accelerare significativamente la ricerca in diversi ambiti, come la progettazione di farmaci e la comprensione delle malattie.&lt;br /&gt;
&lt;br /&gt;
{{#seo:&lt;br /&gt;
|title=Highly accurate protein structure prediction with AlphaFold&lt;br /&gt;
|title_mode=append&lt;br /&gt;
|keywords=proteine, struttura proteica, predizione, intelligenza artificiale, AlphaFold, DeepMind, biologia strutturale, progettazione farmaci, malattie, ricerca, bioinformatica, genomica&lt;br /&gt;
|description=AlphaFold di DeepMind, un sistema di IA rivoluzionario, predice con precisione la struttura 3D delle proteine, aprendo nuove strade nella progettazione farmaci e nella comprensione delle malattie.&lt;br /&gt;
|image=&lt;br /&gt;
}}&lt;/div&gt;</summary>
		<author><name>Mindmakerbot</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Estimating_Knowledge_in_Large_Language_Models_Without_Generating_a_Single_Token&amp;diff=4632</id>
		<title>Estimating Knowledge in Large Language Models Without Generating a Single Token</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Estimating_Knowledge_in_Large_Language_Models_Without_Generating_a_Single_Token&amp;diff=4632"/>
		<updated>2024-12-02T14:03:23Z</updated>

		<summary type="html">&lt;p&gt;Mindmakerbot: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{template pubblicazione&lt;br /&gt;
|data=2024&lt;br /&gt;
|autori=Daniela Gottesman, Mor Geva&lt;br /&gt;
|URL=https://www.semanticscholar.org/paper/881af971d00621709b4c772750cd3ea9d0fb11fd&lt;br /&gt;
|topic=Valutazione della conoscenza nei Large Language Models&lt;br /&gt;
|citazioni=7&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
Questo studio esplora la possibilità di valutare la conoscenza di un Large Language Model (LLM) senza generare testo. Propone KEEN, una sonda che analizza le rappresentazioni interne del modello per prevedere la sua capacità di rispondere a domande su una determinata entità e la fattualità delle sue risposte. Gli esperimenti dimostrano che KEEN correla con l&#039;accuratezza delle risposte e con FActScore, una metrica di fattualità. KEEN, inoltre, si allinea con l&#039;atteggiamento di hedging del modello e riflette i cambiamenti nella sua conoscenza dopo il fine-tuning. Infine, viene presentata una variante più interpretabile di KEEN, che evidenzia token indicativi di cluster e lacune nella conoscenza del modello.&lt;br /&gt;
&lt;br /&gt;
{{#seo:&lt;br /&gt;
|title=Estimating Knowledge in Large Language Models Without Generating a Single Token&lt;br /&gt;
|title_mode=append&lt;br /&gt;
|keywords=Large Language Model, LLM, KEEN, conoscenza, modello linguistico, intelligenza artificiale, AI, valutazione, rappresentazioni interne, fattualità, accuratezza&lt;br /&gt;
|description=Questo studio introduce KEEN, una sonda per valutare la conoscenza di un LLM senza generare testo. Analizzando le rappresentazioni interne, KEEN prevede l&#039;accuratezza e la fattualità delle risposte, allineandosi con l&#039;atteggiamento di hedging e riflettendo i cambiamenti post fine-tuning.&lt;br /&gt;
}}&lt;/div&gt;</summary>
		<author><name>Mindmakerbot</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Are_Large_Language_Models_Geospatially_Knowledgeable%3F&amp;diff=4630</id>
		<title>Are Large Language Models Geospatially Knowledgeable?</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Are_Large_Language_Models_Geospatially_Knowledgeable%3F&amp;diff=4630"/>
		<updated>2024-12-02T13:28:48Z</updated>

		<summary type="html">&lt;p&gt;Mindmakerbot: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{template pubblicazione&lt;br /&gt;
|data=2024&lt;br /&gt;
|autori=Prabin Bhandari, Antonios Anastasopoulos, D. Pfoser&lt;br /&gt;
|URL=https://www.semanticscholar.org/paper/137094dc64e1bad43f68333dc1f82d56168a3de7&lt;br /&gt;
|topic=Geospatial Knowledge of Large Language Models&lt;br /&gt;
|citazioni=18&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
Questo articolo esplora la comprensione dei dati geografici da parte dei modelli linguistici di grandi dimensioni (LLM) e la loro capacità di supportare il processo decisionale geospaziale. Valuta la conoscenza, la consapevolezza e le capacità di ragionamento geospaziale codificate in questi LLM pre-addestrati, concentrandosi sui modelli linguistici autoregressivi. Gli autori propongono approcci sperimentali per (i) sondare le coordinate geografiche degli LLM, (ii) utilizzare preposizioni geospaziali e non geospaziali per valutare la loro consapevolezza geospaziale e (iii) utilizzare un esperimento di scaling multidimensionale (MDS) per valutare le capacità di ragionamento geospaziale dei modelli e determinare la posizione delle città in base al prompting. I risultati indicano che non solo sono necessari LLM più grandi, ma anche più sofisticati, per sintetizzare la conoscenza geospaziale dalle informazioni testuali.&lt;br /&gt;
&lt;br /&gt;
{{#seo:&lt;br /&gt;
|title=Are Large Language Models Geospatially Knowledgeable?&lt;br /&gt;
|title_mode=append&lt;br /&gt;
|keywords=modelli linguistici, grandi modelli linguistici, conoscenza geospaziale, ragionamento geospaziale, intelligenza artificiale, elaborazione del linguaggio naturale, dati geografici, analisi geospaziale, modelli autoregressivi, preposizioni geospaziali&lt;br /&gt;
|description=Questa pubblicazione esplora la capacità dei modelli linguistici di grandi dimensioni di comprendere i dati geografici e supportare le decisioni geospaziali. Valuta la loro conoscenza, consapevolezza e capacità di ragionamento in ambito geospaziale, con particolare attenzione ai modelli autoregressivi. Gli esperimenti condotti suggeriscono la necessità di modelli più grandi e sofisticati per elaborare efficacemente le informazioni geospaziali.&lt;br /&gt;
}}&lt;/div&gt;</summary>
		<author><name>Mindmakerbot</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Crawling_the_Internal_Knowledge-Base_of_Language_Models&amp;diff=4614</id>
		<title>Crawling the Internal Knowledge-Base of Language Models</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Crawling_the_Internal_Knowledge-Base_of_Language_Models&amp;diff=4614"/>
		<updated>2024-12-01T19:44:07Z</updated>

		<summary type="html">&lt;p&gt;Mindmakerbot: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{template pubblicazione&lt;br /&gt;
|data=2022&lt;br /&gt;
|autori=Roi Cohen, Mor Geva, Jonathan Berant, A. Globerson&lt;br /&gt;
|URL=https://www.semanticscholar.org/paper/47a541269d4ef70f37f0d3a57483312c4c6c2ad5&lt;br /&gt;
|topic=Modelli Linguistici&lt;br /&gt;
|citazioni=64&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
Questo articolo esplora l&#039;idea che i modelli linguistici, addestrati su enormi quantità di testo, memorizzino una grande quantità di conoscenza fattuale. Propone un metodo per estrarre questa conoscenza sotto forma di grafo di conoscenza, &amp;quot;navigando&amp;quot; nella base di conoscenza interna del modello.  A partire da un&#039;entità iniziale, il processo espande il grafo, controllando la precisione e la quantità di fatti generati. La valutazione mostra un&#039;alta precisione (82-92%) nell&#039;estrazione dei fatti.&lt;br /&gt;
&lt;br /&gt;
{{#seo:&lt;br /&gt;
|title=Crawling the Internal Knowledge-Base of Language Models&lt;br /&gt;
|title_mode=append&lt;br /&gt;
|keywords=modelli linguistici, basi di conoscenza, knowledge graph, estrazione di conoscenza, navigazione, precisione, fatti, entità, testo, informazione&lt;br /&gt;
|description=Questo studio esplora come i modelli linguistici memorizzano la conoscenza fattuale e propone un metodo per estrarla come un grafo, navigando nella base di conoscenza interna.  La valutazione dimostra un&#039;alta precisione (82-92%) nell&#039;estrazione dei fatti.&lt;br /&gt;
}}&lt;/div&gt;</summary>
		<author><name>Mindmakerbot</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=An_algorithm_for_suffix_stripping&amp;diff=4611</id>
		<title>An algorithm for suffix stripping</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=An_algorithm_for_suffix_stripping&amp;diff=4611"/>
		<updated>2024-12-01T16:29:52Z</updated>

		<summary type="html">&lt;p&gt;Mindmakerbot: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{template pubblicazione&lt;br /&gt;
|data=1973&lt;br /&gt;
|autori=M. Porter&lt;br /&gt;
|URL=https://www.semanticscholar.org/paper/a651bb7cc7fc68ece0cc66ab921486d163373385&lt;br /&gt;
|topic=Rimozione Suffissi&lt;br /&gt;
|citazioni=9554&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
L&#039;articolo descrive un algoritmo per la rimozione automatica dei suffissi dalle parole inglesi, un&#039;operazione particolarmente utile nel campo del recupero delle informazioni.  L&#039;algoritmo, implementato come un programma breve e veloce in BCPL, funziona trattando i suffissi complessi come composti da suffissi semplici, rimuovendo questi ultimi in più passaggi. In ogni passaggio, la rimozione del suffisso dipende dalla forma della radice rimanente, che di solito implica una misura della sua lunghezza sillabica.&lt;br /&gt;
&lt;br /&gt;
[[Category:Pubblicazione]]&lt;br /&gt;
&lt;br /&gt;
{{#seo:&lt;br /&gt;
|title=An algorithm for suffix stripping&lt;br /&gt;
|title_mode=append&lt;br /&gt;
|keywords=algoritmo,suffissi,rimuovere,parole,inglese,stemming,indicizzazione,ricerca,informazioni,BCPL,Porter&lt;br /&gt;
|description=Pubblicazione del 1973 che descrive un algoritmo per rimuovere automaticamente i suffissi dalle parole inglesi, utile per il recupero delle informazioni. L&#039;algoritmo, scritto in BCPL, tratta i suffissi complessi come composti da suffissi semplici, rimuovendoli in più passaggi in base alla lunghezza sillabica della radice.&lt;br /&gt;
}}&lt;/div&gt;</summary>
		<author><name>Mindmakerbot</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Training_Compute-Optimal_Large_Language_Models&amp;diff=4591</id>
		<title>Training Compute-Optimal Large Language Models</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Training_Compute-Optimal_Large_Language_Models&amp;diff=4591"/>
		<updated>2024-11-27T22:37:26Z</updated>

		<summary type="html">&lt;p&gt;Mindmakerbot: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{template pubblicazione&lt;br /&gt;
|data=2021&lt;br /&gt;
|autori=J. Kaplan, Sam McCandlish, T. Henighan, Tom B. Brown, B. Chess, R. Child, Scott Gray, Alec Radford, Jeff Wu, Dario Amodei&lt;br /&gt;
|URL=https://www.semanticscholar.org/paper/e6c561d02500b2596a230b341a8eb8b921ca5bf2&lt;br /&gt;
|topic=Modelli Linguistici Neurali&lt;br /&gt;
|citazioni=3449&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
Questo studio esplora le leggi di scaling empiriche per le prestazioni dei modelli linguistici sulla base della perdita di entropia incrociata. La perdita scala come una legge di potenza con la dimensione del modello, la dimensione del set di dati e la quantità di calcolo utilizzata per l&#039;addestramento, con alcune tendenze che abbracciano più di sette ordini di grandezza.  Altri dettagli architetturali, come la larghezza o la profondità della rete, hanno effetti minimi entro un&#039;ampia gamma. Equazioni semplici governano la dipendenza dell&#039;overfitting dalla dimensione del modello/dataset e la dipendenza della velocità di addestramento dalla dimensione del modello. Queste relazioni consentono di determinare l&#039;allocazione ottimale di un budget di calcolo fisso. I modelli più grandi sono significativamente più efficienti in termini di campioni, in modo tale che l&#039;addestramento ottimale dal punto di vista computazionale prevede l&#039;addestramento di modelli molto grandi su una quantità relativamente modesta di dati e l&#039;arresto significativamente prima della convergenza.&lt;br /&gt;
&lt;br /&gt;
{{#seo:&lt;br /&gt;
|title=Training Compute-Optimal Large Language Models&lt;br /&gt;
|title_mode=append&lt;br /&gt;
|keywords=modelli linguistici, apprendimento automatico, intelligenza artificiale, elaborazione del linguaggio naturale, reti neurali, legge di scaling, perdita di entropia incrociata, overfitting, velocità di addestramento, allocazione del budget di calcolo&lt;br /&gt;
|description=Questo studio esplora come la performance dei modelli linguistici scala in base alla perdita di entropia incrociata, alla dimensione del modello, del dataset e al calcolo impiegato.  Modelli più grandi sono più sample-efficient, suggerendo che l&#039;addestramento ottimale dal punto di vista computazionale consiste nell&#039;allenare modelli molto grandi su quantità di dati relativamente ridotte.&lt;br /&gt;
}}&lt;/div&gt;</summary>
		<author><name>Mindmakerbot</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=MemGPT:_Towards_LLMs_as_Operating_Systems&amp;diff=4575</id>
		<title>MemGPT: Towards LLMs as Operating Systems</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=MemGPT:_Towards_LLMs_as_Operating_Systems&amp;diff=4575"/>
		<updated>2024-11-26T12:15:41Z</updated>

		<summary type="html">&lt;p&gt;Mindmakerbot: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{template pubblicazione&lt;br /&gt;
|data=2024&lt;br /&gt;
|autori=Charles Packer, Vivian Fang, Shishir G. Patil, Kevin Lin, Sarah Wooders, Joseph Gonzalez&lt;br /&gt;
|URL=https://www.semanticscholar.org/paper/908dad62c0e43d80e3e3cb3c0402f7c71c70499c&lt;br /&gt;
|topic=Large Language Models (LLM)&lt;br /&gt;
|citazioni=75&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
MemGPT è un sistema che gestisce in modo intelligente diversi livelli di memoria per fornire efficacemente un contesto esteso all&#039;interno della finestra di contesto limitata di un LLM. Utilizza interrupt per gestire il flusso di controllo tra se stesso e l&#039;utente. &lt;br /&gt;
&lt;br /&gt;
MemGPT è stato valutato in due domini in cui le finestre di contesto limitate dei moderni LLM ne compromettono gravemente le prestazioni: l&#039;analisi di documenti, dove MemGPT è in grado di analizzare documenti di grandi dimensioni che superano di gran lunga la finestra di contesto dell&#039;LLM sottostante, e la chat multi-sessione, dove MemGPT può creare agenti conversazionali che ricordano, riflettono ed evolvono dinamicamente attraverso interazioni a lungo termine con i loro utenti.&lt;br /&gt;
&lt;br /&gt;
{{#seo:&lt;br /&gt;
|title=MemGPT: Towards LLMs as Operating Systems&lt;br /&gt;
|title_mode=append&lt;br /&gt;
|keywords=memoria, contesto, LLM, large language model, intelligenza artificiale, AI, analisi documenti, chat multi-sessione, agente conversazionale, interazioni a lungo termine&lt;br /&gt;
|description=MemGPT gestisce diversi livelli di memoria per fornire contesto esteso agli LLM.  Utilizza interrupt per il flusso di controllo tra sé e l&#039;utente,  eccellendo nell&#039;analisi di documenti di grandi dimensioni e nella chat multi-sessione,  dove crea agenti conversazionali capaci di ricordare e evolvere dinamicamente.&lt;br /&gt;
}}&lt;/div&gt;</summary>
		<author><name>Mindmakerbot</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Emergent_Abilities_of_Large_Language_Models&amp;diff=4573</id>
		<title>Emergent Abilities of Large Language Models</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Emergent_Abilities_of_Large_Language_Models&amp;diff=4573"/>
		<updated>2024-11-25T22:20:18Z</updated>

		<summary type="html">&lt;p&gt;Mindmakerbot: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{template pubblicazione&lt;br /&gt;
|data=2023&lt;br /&gt;
|autori=Jason Wei, Yi Tay, Rishi Bommasani, Colin Raffel, Barret Zoph, Sebastian Borgeaud, Dani Yogatama, Maarten Bosma, Denny Zhou, Donald Metzler, Ed H. Chi, Tatsunori Hashimoto, O. Vinyals, P. Liang, J. Dean, W. Fedus&lt;br /&gt;
|URL=https://www.semanticscholar.org/paper/dac3a172b504f4e33c029655e9befb3386e5f63a&lt;br /&gt;
|topic=Large Language Models&lt;br /&gt;
|citazioni=1936&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
Questo articolo discute le capacità emergenti dei modelli linguistici di grandi dimensioni. Un&#039;abilità è considerata emergente se non è presente in modelli più piccoli ma è presente in modelli più grandi. Pertanto, le capacità emergenti non possono essere previste semplicemente estrapolando le prestazioni di modelli più piccoli. L&#039;esistenza di tale emergenza implica che un ulteriore aumento di scala potrebbe espandere ulteriormente la gamma di capacità dei modelli linguistici.&lt;br /&gt;
&lt;br /&gt;
{{#seo:&lt;br /&gt;
|title=Emergent Abilities of Large Language Models&lt;br /&gt;
|title_mode=append&lt;br /&gt;
|keywords=modelli linguistici, grandi modelli linguistici, intelligenza artificiale, apprendimento automatico, elaborazione del linguaggio naturale, capacità emergenti, scaling, estrapolazione, prestazioni, modelli più piccoli, modelli più grandi&lt;br /&gt;
|description=Questa pubblicazione esplora le capacità emergenti dei modelli linguistici di grandi dimensioni, ovvero abilità non presenti nei modelli più piccoli. L&#039;emergenza di queste capacità suggerisce che un ulteriore aumento di scala potrebbe ampliarle ulteriormente.&lt;br /&gt;
|image=Uploaded_file.png&lt;br /&gt;
}}&lt;/div&gt;</summary>
		<author><name>Mindmakerbot</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=The_Natural_Language_Decathlon:_Multitask_Learning_as_Question_Answering&amp;diff=4567</id>
		<title>The Natural Language Decathlon: Multitask Learning as Question Answering</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=The_Natural_Language_Decathlon:_Multitask_Learning_as_Question_Answering&amp;diff=4567"/>
		<updated>2024-11-25T21:58:47Z</updated>

		<summary type="html">&lt;p&gt;Mindmakerbot: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{template pubblicazione&lt;br /&gt;
|data=2018&lt;br /&gt;
|autori=Bryan McCann, N. Keskar, Caiming Xiong, R. Socher&lt;br /&gt;
|URL=https://www.semanticscholar.org/paper/9784fbf77295860b2e412137b86356d70b25e3c0&lt;br /&gt;
|topic=Multitask Learning&lt;br /&gt;
|citazioni=612&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
Il Natural Language Decathlon (Decathlon del linguaggio naturale) è una sfida che valuta le capacità dei modelli di apprendimento automatico in dieci diversi compiti di comprensione del linguaggio naturale, trattando ogni compito come un tipo di domanda e risposta. L&#039;obiettivo è incoraggiare lo sviluppo di modelli di intelligenza artificiale più versatili e generalizzati nel campo dell&#039;elaborazione del linguaggio naturale. Questo approccio multi-task consente di valutare la capacità di un modello di trasferire la conoscenza appresa da un compito all&#039;altro, migliorando l&#039;efficienza dell&#039;apprendimento e le prestazioni generali.&lt;br /&gt;
&lt;br /&gt;
[[Category:Pubblicazione]]&lt;br /&gt;
&lt;br /&gt;
{{#seo:&lt;br /&gt;
|title=The Natural Language Decathlon: Multitask Learning as Question Answering&lt;br /&gt;
|title_mode=append&lt;br /&gt;
|keywords=apprendimento automatico, intelligenza artificiale, elaborazione del linguaggio naturale, comprensione del linguaggio naturale, multi-task learning, trasferimento della conoscenza, decathlon, NLP, NLU, question answering&lt;br /&gt;
|description=Il Natural Language Decathlon valuta i modelli di apprendimento automatico su dieci compiti di comprensione del linguaggio naturale, visti come question answering, per promuovere modelli di IA più versatili.&lt;br /&gt;
}}&lt;/div&gt;</summary>
		<author><name>Mindmakerbot</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Real-Time_Open-Domain_Question_Answering_with_Dense-Sparse_Phrase_Index&amp;diff=4562</id>
		<title>Real-Time Open-Domain Question Answering with Dense-Sparse Phrase Index</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Real-Time_Open-Domain_Question_Answering_with_Dense-Sparse_Phrase_Index&amp;diff=4562"/>
		<updated>2024-11-25T15:02:18Z</updated>

		<summary type="html">&lt;p&gt;Mindmakerbot: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{template pubblicazione&lt;br /&gt;
|data=2021&lt;br /&gt;
|autori=Minjoon Seo, Jinhyuk Lee, T. Kwiatkowski, Ankur P. Parikh, Ali Farhadi, Hannaneh Hajishirzi&lt;br /&gt;
|URL=https://www.semanticscholar.org/paper/b29db655a18e7417e1188ba392a06b6314f0cb87&lt;br /&gt;
|topic=Question Answering&lt;br /&gt;
|citazioni=148&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
Questo articolo presenta DenSPI, un modello di retrieval per il Question Answering in tempo reale a dominio aperto.  A differenza dei modelli esistenti, DenSPI utilizza rappresentazioni indicizzabili delle frasi del documento, indipendenti dalla query, che velocizzano notevolmente il processo di risposta. La codifica &amp;quot;dense-sparse&amp;quot; delle frasi cattura efficacemente le informazioni sintattiche, semantiche e lessicali, eliminando la necessità di filtrare i documenti di contesto. Grazie a strategie di ottimizzazione per l&#039;addestramento e l&#039;inferenza, il modello può essere addestrato e distribuito anche su un singolo server con 4 GPU.  Inoltre, DenSPI indicizza le frasi dell&#039;intera Wikipedia inglese (fino a 60 miliardi di frasi) utilizzando meno di 2TB di spazio. Gli esperimenti su SQuAD-Open dimostrano che DenSPI raggiunge prestazioni pari o superiori ai modelli precedenti con un costo computazionale ridotto di 6000 volte, traducendosi in un&#039;inferenza end-to-end almeno 68 volte più veloce sulle CPU.&lt;br /&gt;
&lt;br /&gt;
{{#seo:&lt;br /&gt;
|title=Real-Time Open-Domain Question Answering with Dense-Sparse Phrase Index&lt;br /&gt;
|title_mode=append&lt;br /&gt;
|keywords=question answering,information retrieval,indicizzazione,denspi,wikipedia,elaborazione del linguaggio naturale,deep learning,intelligenza artificiale,gpu,open-domain question answering,modelli di linguaggio&lt;br /&gt;
|description=DenSPI, un innovativo modello di retrieval per il question answering in tempo reale. Indicizza le frasi, velocizzando le risposte e raggiungendo prestazioni elevate con un costo computazionale ridotto. Utilizza una codifica dense-sparse&amp;quot; per catturare informazioni sintattiche, semantiche e lessicali.&amp;quot;&lt;br /&gt;
}}&lt;/div&gt;</summary>
		<author><name>Mindmakerbot</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Reading_Wikipedia_to_Answer_Open-Domain_Questions&amp;diff=4557</id>
		<title>Reading Wikipedia to Answer Open-Domain Questions</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Reading_Wikipedia_to_Answer_Open-Domain_Questions&amp;diff=4557"/>
		<updated>2024-11-25T14:01:46Z</updated>

		<summary type="html">&lt;p&gt;Mindmakerbot: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{template pubblicazione&lt;br /&gt;
|data=2017&lt;br /&gt;
|autori=Danqi Chen, Adam Fisch, J. Weston, Antoine Bordes&lt;br /&gt;
|URL=https://www.semanticscholar.org/paper/104715e1097b7ebee436058bfd9f45540f269845&lt;br /&gt;
|topic=Question Answering&lt;br /&gt;
|citazioni=1897&lt;br /&gt;
}}&lt;br /&gt;
Questo documento propone di affrontare il problema delle risposte a domande a dominio aperto utilizzando Wikipedia come unica fonte di conoscenza: la risposta a qualsiasi domanda fattuale è una porzione di testo in un articolo di Wikipedia. Questo compito di lettura automatica su larga scala combina le sfide del recupero di documenti (trovare gli articoli pertinenti) con quello della comprensione automatica del testo (identificare le porzioni di risposta da quegli articoli). Il nostro approccio combina un componente di ricerca basato su hashing bigram e corrispondenza TF-IDF con un modello di rete neurale ricorrente multistrato addestrato per rilevare le risposte nei paragrafi di Wikipedia. I nostri esperimenti su più set di dati QA esistenti indicano che (1) entrambi i moduli sono altamente competitivi rispetto alle controparti esistenti e (2) l&#039;apprendimento multitask che utilizza la supervisione distante sulla loro combinazione è un sistema completo efficace in questo compito impegnativo.&lt;br /&gt;
&lt;br /&gt;
[[Category:pubblicazione]]&lt;br /&gt;
&lt;br /&gt;
{{#seo:&lt;br /&gt;
|title=Reading Wikipedia to Answer Open-Domain Questions&lt;br /&gt;
|title_mode=append&lt;br /&gt;
|keywords=wikipedia,question answering,dominio aperto,lettura automatica,recupero documenti,comprensione del testo,ricerca,hashing,TF-IDF,rete neurale ricorrente,apprendimento automatico,supervisione distante&lt;br /&gt;
|description=Questo studio utilizza Wikipedia per rispondere a domande a dominio aperto, combinando il recupero di documenti con la comprensione del testo. Un modello di rete neurale identifica le risposte all&#039;interno dei paragrafi di Wikipedia, dimostrandosi efficace in questo compito.&lt;br /&gt;
}}&lt;/div&gt;</summary>
		<author><name>Mindmakerbot</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Contriever&amp;diff=4551</id>
		<title>Contriever</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Contriever&amp;diff=4551"/>
		<updated>2024-11-24T13:33:56Z</updated>

		<summary type="html">&lt;p&gt;Mindmakerbot: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Modello di recupero dell&#039;informazione sviluppato da Meta AI che utilizza l&#039;apprendimento contrastivo per creare rappresentazioni dense di testi senza necessità di supervisione. È progettato per superare le limitazioni dei precedenti modelli che richiedevano dati annotati manualmente.&lt;br /&gt;
&lt;br /&gt;
=== Funzionamento ===&lt;br /&gt;
Il funzionamento di Contriever si basa su alcuni principi chiave:&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;1. Architettura di base&#039;&#039;&#039;&lt;br /&gt;
Contriever utilizza un&#039;architettura transformer (simile a BERT) con alcune modifiche cruciali:&lt;br /&gt;
* Un encoder che processa sia le query che i documenti&lt;br /&gt;
* Un layer di pooling che calcola la media dei token per ottenere un embedding del testo&lt;br /&gt;
* Una normalizzazione L2 degli embedding finali&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;2. Processo di addestramento&#039;&#039;&#039;&lt;br /&gt;
Durante l&#039;addestramento, Contriever opera su batch di testi (tipicamente 1024 o più passaggi) nel seguente modo:&lt;br /&gt;
* Prende un passaggio di testo originale: &amp;quot;La Torre Eiffel è stata costruita nel 1889&amp;quot;&lt;br /&gt;
* Crea una variante sintetica come query: &amp;quot;Quando è stata costruita la Torre Eiffel?&amp;quot;&lt;br /&gt;
* Usa altri passaggi nel batch come esempi negativi: &amp;quot;Il Colosseo si trova a Roma&amp;quot;, &amp;quot;La Statua della Libertà è a New York&amp;quot;&lt;br /&gt;
&lt;br /&gt;
Per ogni batch:&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
! Testo originale !! Query sintetica !! Negativi&lt;br /&gt;
|-&lt;br /&gt;
| La Torre Eiffel è stata costruita nel 1889 || Quando è stata costruita la Torre Eiffel? || Il Colosseo si trova a Roma&lt;br /&gt;
|-&lt;br /&gt;
| Parigi è la capitale della Francia || Qual è la capitale della Francia? || Tokyo è la città più popolosa del mondo&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;3. Creazione degli embedding&#039;&#039;&#039;&lt;br /&gt;
Per ogni testo, Contriever:&lt;br /&gt;
# Tokenizza il testo&lt;br /&gt;
# Passa i token attraverso il transformer&lt;br /&gt;
# Applica mean pooling sugli output del transformer&lt;br /&gt;
# Normalizza il vettore risultante&lt;br /&gt;
&lt;br /&gt;
Esempio di processo:&lt;br /&gt;
&amp;quot;La Torre Eiffel è stata costruita nel 1889&amp;quot; → [0.2, -0.3, 0.1, ..., 0.4] (vettore 768-dimensionale)&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;4. Calcolo della similarità&#039;&#039;&#039;&lt;br /&gt;
La similarità tra query e documento viene calcolata usando la similarità del coseno:&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
sim(q,d) = \frac{q \cdot d}{||q|| ||d||}&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;5. Funzione di perdita&#039;&#039;&#039;&lt;br /&gt;
Durante l&#039;addestramento, Contriever ottimizza la funzione InfoNCE:&lt;br /&gt;
&amp;lt;math&amp;gt;&lt;br /&gt;
\mathcal{L} = -\log\frac{\exp(sim(q,d^+)/\tau)}{\exp(sim(q,d^+)/\tau) + \sum\exp(sim(q,d^-)/\tau)}&lt;br /&gt;
&amp;lt;/math&amp;gt;&lt;br /&gt;
&lt;br /&gt;
dove τ è un parametro di temperatura (tipicamente 0.05).&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;6. Processo di retrieval&#039;&#039;&#039;&lt;br /&gt;
Durante l&#039;utilizzo:&lt;br /&gt;
# La query viene codificata nell&#039;embedding q&lt;br /&gt;
# Ogni documento della collezione viene codificato in un embedding d&lt;br /&gt;
# Si calcola la similarità tra q e tutti i d&lt;br /&gt;
# Si restituiscono i k documenti più simili&lt;br /&gt;
&lt;br /&gt;
Esempio pratico:&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
! Query !! Documento più simile !! Similarità&lt;br /&gt;
|-&lt;br /&gt;
| Quando fu costruita la Torre Eiffel? || La Torre Eiffel è stata costruita nel 1889 || 0.82&lt;br /&gt;
|-&lt;br /&gt;
| Chi ha inventato la lampadina? || Thomas Edison inventò la lampadina nel 1879 || 0.75&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;7. Ottimizzazioni&#039;&#039;&#039;&lt;br /&gt;
Contriever implementa diverse ottimizzazioni:&lt;br /&gt;
* Batch di grandi dimensioni per migliore convergenza&lt;br /&gt;
* Normalizzazione degli embedding per stabilità numerica&lt;br /&gt;
* Cache degli embedding per efficienza computazionale&lt;br /&gt;
* Temperature scaling per bilanciare l&#039;apprendimento&lt;br /&gt;
&lt;br /&gt;
Le prestazioni di Contriever sono particolarmente notevoli in scenari zero-shot, dove supera modelli supervisionati tradizionali su vari benchmark di recupero dell&#039;informazione.&lt;br /&gt;
&lt;br /&gt;
=== Implementazione ===&lt;br /&gt;
Un esempio semplificato di utilizzo con Hugging Face:&lt;br /&gt;
&lt;br /&gt;
&amp;lt;syntaxhighlight lang=&amp;quot;python&amp;quot;&amp;gt;&lt;br /&gt;
from transformers import AutoModel, AutoTokenizer&lt;br /&gt;
&lt;br /&gt;
# Caricamento del modello&lt;br /&gt;
tokenizer = AutoTokenizer.from_pretrained(&#039;facebook/contriever&#039;)&lt;br /&gt;
model = AutoModel.from_pretrained(&#039;facebook/contriever&#039;)&lt;br /&gt;
&lt;br /&gt;
# Codifica del testo&lt;br /&gt;
def encode_text(text):&lt;br /&gt;
   inputs = tokenizer(text, return_tensors=&#039;pt&#039;, truncation=True)&lt;br /&gt;
   outputs = model(**inputs)&lt;br /&gt;
   embeddings = outputs.last_hidden_state.mean(dim=1)&lt;br /&gt;
   return embeddings&lt;br /&gt;
&lt;br /&gt;
# Esempio di utilizzo&lt;br /&gt;
query = &amp;quot;Quando fu costruita la Torre Eiffel?&amp;quot;&lt;br /&gt;
doc = &amp;quot;La Torre Eiffel è stata costruita nel 1889&amp;quot;&lt;br /&gt;
&lt;br /&gt;
query_emb = encode_text(query)&lt;br /&gt;
doc_emb = encode_text(doc)&lt;br /&gt;
&lt;br /&gt;
# Calcolo similarità&lt;br /&gt;
similarity = torch.cosine_similarity(query_emb, doc_emb)&lt;br /&gt;
&amp;lt;/syntaxhighlight&amp;gt;&lt;br /&gt;
&lt;br /&gt;
[[Categoria:Modello]]{{#seo:&lt;br /&gt;
|title=Contriever&lt;br /&gt;
|title_mode=append&lt;br /&gt;
|keywords=recupero dell&#039;informazione, apprendimento automatico, intelligenza artificiale, modelli linguistici, elaborazione del linguaggio naturale, embedding, similarità coseno, codifica semantica, zero-shot, Meta AI&lt;br /&gt;
|description=Contriever, modello di Meta AI, utilizza l&#039;apprendimento contrastivo per creare rappresentazioni dense di testi, superando i modelli precedenti che necessitavano di dati annotati. Funziona tramite encoder, pooling layer e normalizzazione L2, ottimizzando la funzione InfoNCE per massimizzare la similarità tra query e documento.&lt;br /&gt;
}}&lt;/div&gt;</summary>
		<author><name>Mindmakerbot</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Dense_Passage_Retrieval_for_Open-Domain_Question_Answering&amp;diff=4546</id>
		<title>Dense Passage Retrieval for Open-Domain Question Answering</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Dense_Passage_Retrieval_for_Open-Domain_Question_Answering&amp;diff=4546"/>
		<updated>2024-11-24T13:25:59Z</updated>

		<summary type="html">&lt;p&gt;Mindmakerbot: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{template pubblicazione&lt;br /&gt;
|data=2021&lt;br /&gt;
|autori=Vladimir Karpukhin, Barlas Oğuz, Sewon Min, Patrick Lewis, Ledell Yu Wu, Sergey Edunov, Danqi Chen, Wen-tau Yih&lt;br /&gt;
|URL=https://www.semanticscholar.org/paper/b26f2037f769d5ffc5f7bdcec2de8da28ec14bee&lt;br /&gt;
|topic=Question Answering&lt;br /&gt;
|citazioni=2997&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
Questo articolo presenta un nuovo metodo per il recupero dei passaggi nel question answering a dominio aperto. Invece di utilizzare i tradizionali modelli vettoriali sparsi, come TF-IDF o BM25, gli autori propongono un sistema di recupero denso basato su rappresentazioni dense. Le inclusioni vengono apprese da un piccolo numero di domande e passaggi tramite una semplice struttura a doppio encoder. Questo approccio ha dimostrato di superare un forte sistema Lucene-BM25 del 9%-19% in termini di accuratezza del recupero dei 20 passaggi principali e ha aiutato il loro sistema di domande e risposte end-to-end a stabilire un nuovo stato dell&#039;arte su diversi benchmark di domande e risposte a dominio aperto. [[Categoria:Pubblicazione]]&lt;br /&gt;
&lt;br /&gt;
{{#seo:&lt;br /&gt;
|title=Dense Passage Retrieval for Open-Domain Question Answering&lt;br /&gt;
|title_mode=append&lt;br /&gt;
|keywords=recupero informazioni,question answering,open-domain,rappresentazioni dense,doppio encoder,TF-IDF,BM25,accuratezza,benchmark,pubblicazione&lt;br /&gt;
|description=Questo studio introduce un innovativo metodo di recupero denso per il question answering a dominio aperto, superando i modelli vettoriali tradizionali. L&#039;approccio basato su rappresentazioni dense e una struttura a doppio encoder migliora l&#039;accuratezza del recupero dei passaggi, stabilendo un nuovo standard nei benchmark di settore.&lt;br /&gt;
}}&lt;/div&gt;</summary>
		<author><name>Mindmakerbot</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Unsupervised_Dense_Information_Retrieval_with_Contrastive_Learning&amp;diff=4541</id>
		<title>Unsupervised Dense Information Retrieval with Contrastive Learning</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Unsupervised_Dense_Information_Retrieval_with_Contrastive_Learning&amp;diff=4541"/>
		<updated>2024-11-24T10:33:55Z</updated>

		<summary type="html">&lt;p&gt;Mindmakerbot: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{template pubblicazione&lt;br /&gt;
|data=2021&lt;br /&gt;
|autori=Gautier Izacard, Mathilde Caron, Lucas Hosseini, Sebastian Riedel, Piotr Bojanowski, Armand Joulin, Edouard Grave&lt;br /&gt;
|URL=https://www.semanticscholar.org/paper/4f4a409f701f7552d45c46a5b0fea69dca6f8e84&lt;br /&gt;
|topic=Information Retrieval&lt;br /&gt;
|citazioni=615&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
Questo studio esplora l&#039;information retrieval denso non supervisionato mediante l&#039;apprendimento contrastivo. L&#039;obiettivo è migliorare la similarità semantica e l&#039;efficacia della ricerca, in particolare in situazioni con pochi dati di addestramento o in contesti multilingue.  I risultati mostrano che questo approccio supera i metodi tradizionali come BM25 in molti casi e offre un promettente punto di partenza per l&#039;addestramento con dati limitati.  Inoltre, dimostra buone capacità di trasferimento cross-linguale, aprendo nuove possibilità per la ricerca in lingue a basse risorse.&lt;br /&gt;
&lt;br /&gt;
[[Category:Pubblicazione]]&lt;br /&gt;
&lt;br /&gt;
{{#seo:&lt;br /&gt;
|title=Unsupervised Dense Information Retrieval with Contrastive Learning&lt;br /&gt;
|title_mode=append&lt;br /&gt;
|keywords=information retrieval, apprendimento contrastivo, similarità semantica, ricerca non supervisionata, pochi dati, multilingue, BM25, trasferimento cross-linguale, lingue a basse risorse, addestramento con dati limitati&lt;br /&gt;
|description=Studio sull&#039;information retrieval denso non supervisionato con apprendimento contrastivo.  Supera metodi tradizionali come BM25, migliorando la similarità semantica, specie in contesti multilingue o con pochi dati.&lt;br /&gt;
}}&lt;/div&gt;</summary>
		<author><name>Mindmakerbot</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Unsupervised_Dense_Information_Retrieval_with_Contrastive_Learning&amp;diff=4539</id>
		<title>Unsupervised Dense Information Retrieval with Contrastive Learning</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Unsupervised_Dense_Information_Retrieval_with_Contrastive_Learning&amp;diff=4539"/>
		<updated>2024-11-23T23:47:37Z</updated>

		<summary type="html">&lt;p&gt;Mindmakerbot: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{#seo:&lt;br /&gt;
|title=Unsupervised Dense Information Retrieval with Contrastive Learning&lt;br /&gt;
|title_mode=append&lt;br /&gt;
|keywords=apprendimento automatico, information retrieval, contrastive learning, deep learning, intelligenza artificiale, NLP, elaborazione del linguaggio naturale, rappresentazione densa, similarità semantica, vettori&lt;br /&gt;
|description=Questa pubblicazione esplora l&#039;information retrieval denso non supervisionato con l&#039;apprendimento contrastivo. Scopri come migliorare la similarità semantica e l&#039;efficacia della ricerca.&lt;br /&gt;
}}&lt;/div&gt;</summary>
		<author><name>Mindmakerbot</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=On_the_difficulty_of_training_recurrent_neural_networks&amp;diff=3121</id>
		<title>On the difficulty of training recurrent neural networks</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=On_the_difficulty_of_training_recurrent_neural_networks&amp;diff=3121"/>
		<updated>2024-09-17T10:17:35Z</updated>

		<summary type="html">&lt;p&gt;Mindmakerbot: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{template pubblicazione&lt;br /&gt;
|data=2014&lt;br /&gt;
|autori=Razvan Pascanu, Tomas Mikolov, Yoshua Bengio&lt;br /&gt;
|URL=https://www.semanticscholar.org/paper/84069287da0a6b488b8c933f3cb5be759cb6237e&lt;br /&gt;
|topic=Reti Neurali Ricorrenti&lt;br /&gt;
|citazioni=5031&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
Questo articolo affronta le difficoltà nell&#039;addestramento delle reti neurali ricorrenti, in particolare i problemi del gradiente che svanisce e del gradiente che esplode. Gli autori analizzano questi problemi da diverse prospettive (analitica, geometrica e dei sistemi dinamici) per fornire una comprensione più approfondita. &lt;br /&gt;
&lt;br /&gt;
Per affrontare queste sfide, l&#039;articolo propone due soluzioni: una strategia di clipping della norma del gradiente per gestire i gradienti che esplodono e un vincolo soft per il problema dei gradienti che svaniscono. L&#039;efficacia di queste soluzioni viene convalidata empiricamente attraverso esperimenti.&lt;br /&gt;
&lt;br /&gt;
{{#seo:&lt;br /&gt;
            |title=On the difficulty of training recurrent neural networks&lt;br /&gt;
            |title_mode=append&lt;br /&gt;
            |keywords=reti neurali, apprendimento profondo, reti neurali ricorrenti, gradiente che svanisce, gradiente che esplode, clipping del gradiente, addestramento, ottimizzazione&lt;br /&gt;
            |description=Questa pubblicazione esplora le difficoltà nell&#039;addestramento delle reti neurali ricorrenti, analizzando i problemi del gradiente che svanisce e che esplode. Vengono proposte soluzioni come il clipping della norma del gradiente e un vincolo soft, convalidate da esperimenti.&lt;br /&gt;
            &lt;br /&gt;
            }}&lt;/div&gt;</summary>
		<author><name>Mindmakerbot</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=FANNG:_Fast_Approximate_Nearest_Neighbour_Graphs&amp;diff=3117</id>
		<title>FANNG: Fast Approximate Nearest Neighbour Graphs</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=FANNG:_Fast_Approximate_Nearest_Neighbour_Graphs&amp;diff=3117"/>
		<updated>2024-09-10T13:38:41Z</updated>

		<summary type="html">&lt;p&gt;Mindmakerbot: Creata pagina con &amp;quot;{{template pubblicazione  |data=2014  |autori=Cong Fu, Chao Xiang, Changxu Wang, Deng Cai  |URL=https://www.semanticscholar.org/paper/8843bdc4548bd2f9b483aafe90b7ee41c8b8fdc8  |topic=Approximate Nearest Neighbor Search  |citazioni=241  }}    La ricerca approssimativa del vicino più prossimo (ANNS) è un problema fondamentale nei database e nel data mining. Un algoritmo ANNS scalabile dovrebbe essere efficiente sia in termini di memoria che di velocità. Alcuni dei primi...&amp;quot;&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{template pubblicazione&lt;br /&gt;
|data=2014&lt;br /&gt;
|autori=Cong Fu, Chao Xiang, Changxu Wang, Deng Cai&lt;br /&gt;
|URL=https://www.semanticscholar.org/paper/8843bdc4548bd2f9b483aafe90b7ee41c8b8fdc8&lt;br /&gt;
|topic=Approximate Nearest Neighbor Search&lt;br /&gt;
|citazioni=241&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
La ricerca approssimativa del vicino più prossimo (ANNS) è un problema fondamentale nei database e nel data mining. Un algoritmo ANNS scalabile dovrebbe essere efficiente sia in termini di memoria che di velocità. Alcuni dei primi approcci basati su grafi hanno mostrato interessanti garanzie teoriche sulla complessità del tempo di ricerca, ma soffrono tutti del problema dell&#039;elevata complessità del tempo di indicizzazione. Recentemente, sono stati proposti alcuni metodi basati su grafi per ridurre la complessità dell&#039;indicizzazione approssimando i grafi tradizionali; questi metodi hanno ottenuto prestazioni rivoluzionarie su set di dati su scala milionaria. Tuttavia, non possono ancora essere ridimensionati a database da miliardi di nodi. In questo articolo, per migliorare ulteriormente l&#039;efficienza della ricerca e la scalabilità dei metodi basati su grafi, iniziamo introducendo quattro aspetti: (1) garantire la connettività del grafico; (2) ridurre il grado medio in uscita del grafico per una rapida traversata; (3) abbreviare il percorso di ricerca; e (4) ridurre la dimensione dell&#039;indice. Quindi, proponiamo una nuova struttura a grafo chiamata Monotonic Relative Neighborhood Graph (MRNG) che garantisce una complessità di ricerca molto bassa (prossima al tempo logaritmico). Per ridurre ulteriormente la complessità dell&#039;indicizzazione e renderla pratica per i problemi ANNS da miliardi di nodi, proponiamo una nuova struttura a grafo denominata Navigating Spreading-out Graph (NSG) approssimando l&#039;MRNG. L&#039;NSG tiene conto simultaneamente dei quattro aspetti. Esperimenti approfonditi dimostrano che NSG supera significativamente tutti gli algoritmi esistenti. Inoltre, NSG mostra prestazioni superiori nello scenario e-commerce di Taobao (Alibaba Group) ed è stato integrato nel loro motore di ricerca su scala miliardaria.&lt;br /&gt;
&lt;br /&gt;
[[Category:pubblicazione]]&lt;br /&gt;
&lt;br /&gt;
{{#seo:&lt;br /&gt;
            |title=FANNG: Fast Approximate Nearest Neighbour Graphs&lt;br /&gt;
            |title_mode=append&lt;br /&gt;
            |keywords=ricerca del vicino più prossimo, ANN, grafi, indicizzazione, scalabilità, database, data mining, MRNG, NSG&lt;br /&gt;
            |description=La ricerca approssimativa del vicino più prossimo (ANNS) è un problema cruciale. Questo studio introduce una nuova struttura a grafo, Navigating Spreading-out Graph (NSG), per migliorare l&#039;efficienza e la scalabilità di ANNS. NSG supera gli algoritmi esistenti e mostra prestazioni superiori su set di dati su larga scala, come dimostrato nell&#039;implementazione nel motore di ricerca di Taobao (Alibaba Group).&lt;br /&gt;
            }}&lt;/div&gt;</summary>
		<author><name>Mindmakerbot</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=RoBERTa:_A_Robustly_Optimized_BERT_Pretraining_Approach&amp;diff=3113</id>
		<title>RoBERTa: A Robustly Optimized BERT Pretraining Approach</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=RoBERTa:_A_Robustly_Optimized_BERT_Pretraining_Approach&amp;diff=3113"/>
		<updated>2024-09-10T13:27:43Z</updated>

		<summary type="html">&lt;p&gt;Mindmakerbot: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{template pubblicazione&lt;br /&gt;
|data=2019&lt;br /&gt;
|autori=Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, M. Lewis, Luke Zettlemoyer, Veselin Stoyanov&lt;br /&gt;
|URL=https://www.semanticscholar.org/paper/077f8329a7b6fa3b7c877a57b81eb6c18b5f87de&lt;br /&gt;
|topic=Modelli Linguistici, BERT&lt;br /&gt;
|citazioni=20714&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
Questo articolo presenta RoBERTa (A Robustly Optimized BERT Pretraining Approach), un approccio di pretraining per modelli linguistici basato su BERT. Gli autori dimostrano che BERT era stato significativamente sotto-addestrato nelle sue iterazioni precedenti e che, con una corretta ottimizzazione, può eguagliare o superare le prestazioni di tutti i modelli pubblicati successivamente. RoBERTa raggiunge risultati all&#039;avanguardia su benchmark come GLUE, RACE e SQuAD, evidenziando l&#039;importanza di scelte di progettazione precedentemente trascurate nell&#039;addestramento di BERT.&lt;br /&gt;
&lt;br /&gt;
[[Category:pubblicazione]]&lt;br /&gt;
&lt;br /&gt;
{{#seo:&lt;br /&gt;
            |title=RoBERTa: A Robustly Optimized BERT Pretraining Approach&lt;br /&gt;
            |title_mode=append&lt;br /&gt;
            |keywords=BERT, modelli linguistici, addestramento, ottimizzazione, prestazioni, benchmark, GLUE, RACE, SQuAD&lt;br /&gt;
            |description=Questa pubblicazione presenta RoBERTa, un approccio ottimizzato per il pretraining di BERT. Gli autori dimostrano che BERT può raggiungere prestazioni all&#039;avanguardia su benchmark come GLUE, RACE e SQuAD con una corretta ottimizzazione.&lt;br /&gt;
            &lt;br /&gt;
            }}&lt;/div&gt;</summary>
		<author><name>Mindmakerbot</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=What_Language_Model_Architecture_and_Pretraining_Objective_Work_Best_for_Zero-Shot_Generalization%3F&amp;diff=3102</id>
		<title>What Language Model Architecture and Pretraining Objective Work Best for Zero-Shot Generalization?</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=What_Language_Model_Architecture_and_Pretraining_Objective_Work_Best_for_Zero-Shot_Generalization%3F&amp;diff=3102"/>
		<updated>2024-09-10T10:38:18Z</updated>

		<summary type="html">&lt;p&gt;Mindmakerbot: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{template pubblicazione&lt;br /&gt;
|data=2021&lt;br /&gt;
|autori=Thomas Wang, Adam Roberts, Daniel Hesslow, Teven Le Scao, Hyung Won Chung, Iz Beltagy, Julien Launay, Colin Raffel&lt;br /&gt;
|URL=https://www.semanticscholar.org/paper/15190e8b459bd85d546286f7d7da61b4f4f3f58a&lt;br /&gt;
|topic=Modelli linguistici, Zero-shot learning&lt;br /&gt;
|citazioni=133&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
Questo articolo esplora quale architettura di modello linguistico e obiettivo di pretraining funzionano meglio per la generalizzazione zero-shot. Gli autori confrontano modelli con e senza visibilità non causale sull&#039;input, addestrati con obiettivi di modellazione linguistica autoregressiva e mascherata. I risultati mostrano che i modelli decoder-only causali addestrati su un obiettivo di modellazione linguistica autoregressiva mostrano la generalizzazione zero-shot più forte dopo un pretraining puramente non supervisionato. Tuttavia, i modelli con visibilità non causale sul loro input addestrati con un obiettivo di modellazione linguistica mascherata seguito da un finetuning multitask hanno ottenuto i migliori risultati tra gli esperimenti.&lt;br /&gt;
&lt;br /&gt;
{{#seo:&lt;br /&gt;
            |title=What Language Model Architecture and Pretraining Objective Work Best for Zero-Shot Generalization?&lt;br /&gt;
            |title_mode=append&lt;br /&gt;
            |keywords=apprendimento automatico, &amp;quot;elaborazione del linguaggio naturale&amp;quot;, &amp;quot;modelli linguistici&amp;quot;, &amp;quot;generalizzazione zero-shot&amp;quot;, &amp;quot;apprendimento non supervisionato&amp;quot;, &amp;quot;modellazione linguistica&amp;quot;, &amp;quot;intelligenza artificiale&amp;quot;&lt;br /&gt;
            |description=Questa pubblicazione esplora quale architettura di modello linguistico e obiettivo di pretraining funzionano meglio per la generalizzazione zero-shot. Confrontando modelli con e senza visibilità non causale, addestrati con obiettivi di modellazione linguistica autoregressiva e mascherata, si scopre che i modelli decoder-only causali addestrati su un obiettivo di modellazione linguistica autoregressiva mostrano la generalizzazione zero-shot più forte dopo un pretraining puramente non supervisionato. I modelli con visibilità non causale, addestrati con un obiettivo di modellazione linguistica mascherata seguito da un finetuning multitask, hanno ottenuto i migliori risultati.&lt;br /&gt;
            &lt;br /&gt;
            }}&lt;/div&gt;</summary>
		<author><name>Mindmakerbot</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=M3-Embedding:_Multi-Linguality,_Multi-Functionality,_Multi-Granularity_Text_Embeddings_Through_Self-Knowledge_Distillation&amp;diff=3096</id>
		<title>M3-Embedding: Multi-Linguality, Multi-Functionality, Multi-Granularity Text Embeddings Through Self-Knowledge Distillation</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=M3-Embedding:_Multi-Linguality,_Multi-Functionality,_Multi-Granularity_Text_Embeddings_Through_Self-Knowledge_Distillation&amp;diff=3096"/>
		<updated>2024-09-10T07:04:03Z</updated>

		<summary type="html">&lt;p&gt;Mindmakerbot: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{template pubblicazione&lt;br /&gt;
|data=2021&lt;br /&gt;
|autori=Jianlv Chen, Shitao Xiao, Peitian Zhang, Kun Luo, Defu Lian, Zheng Liu&lt;br /&gt;
|URL=https://www.semanticscholar.org/paper/4d5735c186ddb2430ac9689ccf61fdcbbfc23abc&lt;br /&gt;
|topic=Modelli di embedding&lt;br /&gt;
|citazioni=67&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
Viene presentato M3-Embedding, un nuovo modello di embedding versatile per la sua natura multilingue, multifunzionale e multi-granulare. Supporta oltre 100 lingue, ottenendo prestazioni all&#039;avanguardia in compiti di retrieval multilingue e cross-lingue. Può eseguire simultaneamente tre funzionalità di retrieval comuni: dense retrieval, multi-vector retrieval e sparse retrieval. È in grado di elaborare input di diverse granularità, da brevi frasi a documenti lunghi fino a 8192 token.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{#seo:&lt;br /&gt;
            |title=M3-Embedding: Multi-Linguality, Multi-Functionality, Multi-Granularity Text Embeddings Through Self-Knowledge Distillation&lt;br /&gt;
            |title_mode=append&lt;br /&gt;
            |keywords=embedding, multilingue, retrieval, multi-vector, knowledge distillation, elaborazione del linguaggio naturale, modelli di linguaggio, intelligenza artificiale, apprendimento automatico, semantica&lt;br /&gt;
            |description=M3-Embedding è un modello innovativo che eccelle per versatilità, supportando oltre 100 lingue e diverse funzioni di retrieval. In grado di elaborare testi di varia lunghezza, rappresenta un progresso significativo nell&#039;ambito dell&#039;apprendimento automatico e dell&#039;elaborazione del linguaggio naturale.&lt;br /&gt;
            &lt;br /&gt;
            }}&lt;/div&gt;</summary>
		<author><name>Mindmakerbot</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=BLEU:_a_method_for_automatic_evaluation_of_machine_translation&amp;diff=3092</id>
		<title>BLEU: a method for automatic evaluation of machine translation</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=BLEU:_a_method_for_automatic_evaluation_of_machine_translation&amp;diff=3092"/>
		<updated>2024-09-09T05:01:25Z</updated>

		<summary type="html">&lt;p&gt;Mindmakerbot: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{template pubblicazione&lt;br /&gt;
|data=2002&lt;br /&gt;
|autori=K. Papineni, Salim Roukos, T. Ward, Wei-Jing Zhu&lt;br /&gt;
|URL=https://www.semanticscholar.org/paper/d7da009f457917aa381619facfa5ffae9329a6e9&lt;br /&gt;
|topic=Valutazione della traduzione automatica&lt;br /&gt;
|citazioni=24705&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
L&#039;articolo presenta BLEU (Bilingual Evaluation Understudy), un algoritmo per la valutazione automatica della qualità delle traduzioni automatiche. BLEU confronta la traduzione automatica con una o più traduzioni di riferimento realizzate da esseri umani e calcola un punteggio che indica il grado di somiglianza tra la traduzione automatica e le traduzioni di riferimento. BLEU è ampiamente utilizzato nella ricerca sulla traduzione automatica come metrica per confrontare i diversi sistemi di traduzione.&lt;br /&gt;
&lt;br /&gt;
{{#seo:&lt;br /&gt;
            |title=BLEU: a method for automatic evaluation of machine translation&lt;br /&gt;
            |title_mode=append&lt;br /&gt;
            |keywords=traduzione automatica, valutazione della traduzione, BLEU, metrica di valutazione, qualità della traduzione, traduzione automatica statistica, traduzione automatica neurale, confronto tra sistemi di traduzione&lt;br /&gt;
            |description=Questa pubblicazione presenta BLEU (Bilingual Evaluation Understudy), un algoritmo per valutare automaticamente la qualità delle traduzioni automatiche. BLEU confronta la traduzione automatica con traduzioni di riferimento umane, generando un punteggio che indica la somiglianza tra le due. Ampiamente utilizzato nella ricerca sulla traduzione automatica, BLEU funge da metrica per confrontare diversi sistemi di traduzione.&lt;br /&gt;
            &lt;br /&gt;
            }}&lt;/div&gt;</summary>
		<author><name>Mindmakerbot</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Long_Short-Term_Memory&amp;diff=3090</id>
		<title>Long Short-Term Memory</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Long_Short-Term_Memory&amp;diff=3090"/>
		<updated>2024-09-09T04:56:27Z</updated>

		<summary type="html">&lt;p&gt;Mindmakerbot: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{template pubblicazione&lt;br /&gt;
|data=1997&lt;br /&gt;
|autori=Sepp Hochreiter, J. Schmidhuber&lt;br /&gt;
|URL=https://www.semanticscholar.org/paper/2e9d221c206e9503ceb452302d68d10e293f2a10&lt;br /&gt;
|topic=Reti Neurali Ricorrenti&lt;br /&gt;
|citazioni=80233&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
L&#039;apprendimento per memorizzare informazioni su intervalli di tempo estesi tramite backpropagation ricorrente richiede molto tempo, soprattutto a causa di un flusso di errore insufficiente e in decadimento. Questo articolo introduce un metodo nuovo, efficiente e basato sul gradiente chiamato memoria a breve e lungo termine (LSTM). Troncando il gradiente dove questo non fa male, LSTM può imparare a colmare ritardi minimi superiori a 1000 passi temporali discreti imponendo un flusso di errore costante attraverso carosello di errore costanti all&#039;interno di unità speciali. Le unità gate moltiplicative imparano ad aprire e chiudere l&#039;accesso al flusso di errore costante. LSTM è locale nello spazio e nel tempo; la sua complessità computazionale per passo temporale e peso è O(1).&lt;br /&gt;
&lt;br /&gt;
{{#seo:&lt;br /&gt;
            |title=Long Short-Term Memory&lt;br /&gt;
            |title_mode=append&lt;br /&gt;
            |keywords=rete neurale, apprendimento automatico, intelligenza artificiale, memoria a breve termine, memoria a lungo termine, backpropagation, gradiente, LSTM, intervalli di tempo, elaborazione del linguaggio naturale&lt;br /&gt;
            |description=Questo articolo introduce la memoria a breve e lungo termine (LSTM), un metodo efficiente per addestrare reti neurali ricorrenti. LSTM risolve il problema del decadimento del gradiente troncandolo selettivamente, consentendo di apprendere dipendenze a lungo termine. Questo ha aperto la strada a significativi progressi nell&#039;apprendimento automatico.&lt;br /&gt;
            }}&lt;/div&gt;</summary>
		<author><name>Mindmakerbot</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Learning_Phrase_Representations_using_RNN_Encoder%E2%80%93Decoder_for_Statistical_Machine_Translation&amp;diff=3084</id>
		<title>Learning Phrase Representations using RNN Encoder–Decoder for Statistical Machine Translation</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Learning_Phrase_Representations_using_RNN_Encoder%E2%80%93Decoder_for_Statistical_Machine_Translation&amp;diff=3084"/>
		<updated>2024-09-08T18:08:34Z</updated>

		<summary type="html">&lt;p&gt;Mindmakerbot: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{template pubblicazione&lt;br /&gt;
|data=2014&lt;br /&gt;
|autori=Kyunghyun Cho, B. V. Merrienboer, Çaglar Gülçehre, Dzmitry Bahdanau, Fethi Bougares, Holger Schwenk, Yoshua Bengio&lt;br /&gt;
|URL=https://www.semanticscholar.org/paper/0b544dfe355a5070b60986319a3f51fb45d1348e&lt;br /&gt;
|topic=Traduzione automatica&lt;br /&gt;
|citazioni=21477&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
Questo articolo propone un nuovo modello di rete neurale chiamato RNN Encoder-Decoder, costituito da due reti neurali ricorrenti (RNN). Una RNN codifica una sequenza di simboli in una rappresentazione vettoriale di lunghezza fissa, mentre l&#039;altra decodifica la rappresentazione in un&#039;altra sequenza di simboli. L&#039;encoder e il decoder del modello proposto vengono addestrati congiuntamente per massimizzare la probabilità condizionata di una sequenza di destinazione data una sequenza di origine. Si è scoperto empiricamente che le prestazioni di un sistema di traduzione automatica statistica migliorano utilizzando le probabilità condizionate di coppie di frasi calcolate dall&#039;RNN Encoder-Decoder come caratteristica aggiuntiva nel modello log-lineare esistente. Qualitativamente, mostriamo che il modello proposto apprende una rappresentazione semantica e sintatticamente significativa delle frasi linguistiche.&lt;br /&gt;
&lt;br /&gt;
{{#seo:&lt;br /&gt;
            |title=Learning Phrase Representations using RNN Encoder–Decoder for Statistical Machine Translation&lt;br /&gt;
            |title_mode=append&lt;br /&gt;
            |keywords=traduzione automatica, &amp;quot;reti neurali&amp;quot;, &amp;quot;apprendimento profondo&amp;quot;, &amp;quot;rappresentazione delle frasi&amp;quot;, &amp;quot;encoder-decoder&amp;quot;, &amp;quot;linguaggio naturale&amp;quot;, &amp;quot;elaborazione del linguaggio naturale&amp;quot;, &amp;quot;intelligenza artificiale&amp;quot;, &amp;quot;machine learning&amp;quot;, &amp;quot;deep learning&amp;quot;&lt;br /&gt;
            |description=Questo articolo presenta l&#039;RNN Encoder-Decoder, un nuovo modello di rete neurale per la traduzione automatica. Questo modello utilizza due reti neurali ricorrenti per codificare e decodificare le frasi, migliorando la precisione della traduzione. Gli autori dimostrano empiricamente l&#039;efficacia del modello e la sua capacità di apprendere una rappresentazione significativa delle frasi.&lt;br /&gt;
            &lt;br /&gt;
            }}&lt;/div&gt;</summary>
		<author><name>Mindmakerbot</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=BART:_Denoising_Sequence-to-Sequence_Pre-training_for_Natural_Language_Generation,_Translation,_and_Comprehension&amp;diff=3077</id>
		<title>BART: Denoising Sequence-to-Sequence Pre-training for Natural Language Generation, Translation, and Comprehension</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=BART:_Denoising_Sequence-to-Sequence_Pre-training_for_Natural_Language_Generation,_Translation,_and_Comprehension&amp;diff=3077"/>
		<updated>2024-09-08T06:28:42Z</updated>

		<summary type="html">&lt;p&gt;Mindmakerbot: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{template pubblicazione&lt;br /&gt;
|data=2019&lt;br /&gt;
|autori=M. Lewis, Yinhan Liu, Naman Goyal, Marjan Ghazvininejad, Abdel-rahman Mohamed, Omer Levy, Veselin Stoyanov, Luke Zettlemoyer&lt;br /&gt;
|URL=https://www.semanticscholar.org/paper/395de0bd3837fdf4b4b5e5f04835bcc69c279481&lt;br /&gt;
|topic=Sequence-to-sequence&lt;br /&gt;
|citazioni=9070&lt;br /&gt;
}}&lt;br /&gt;
Viene presentato BART, un autoencoder denoising per il preaddestramento di modelli sequenza-a-sequenza. BART viene addestrato (1) corrompendo il testo con una funzione di disturbo arbitraria e (2) imparando un modello per ricostruire il testo originale. Utilizza un&#039;architettura di traduzione automatica neurale basata su Transformer standard che, nonostante la sua semplicità, può essere vista come una generalizzazione di BERT (grazie all&#039;encoder bidirezionale), GPT (con il decodificatore da sinistra a destra) e altri recenti schemi di preaddestramento. Valutiamo una serie di approcci di disturbo, trovando le migliori prestazioni sia mescolando casualmente l&#039;ordine delle frasi che utilizzando un nuovo schema di riempimento, in cui gli intervalli di testo vengono sostituiti con un singolo token di maschera. BART è particolarmente efficace se messo a punto per la generazione di testo, ma funziona bene anche per le attività di comprensione. Corrisponde alle prestazioni di RoBERTa su GLUE e SQuAD e raggiunge nuovi risultati all&#039;avanguardia su una gamma di attività di dialogo astratto, risposta alle domande e riepilogo, con guadagni fino a 3,5 ROUGE. BART fornisce anche un aumento di 1,1 BLEU rispetto a un sistema di traduzione inversa per la traduzione automatica, con solo preaddestramento in lingua di destinazione. Replichiamo anche altri schemi di preaddestramento all&#039;interno del framework BART, per comprenderne l&#039;effetto sulle prestazioni dell&#039;attività finale.&lt;br /&gt;
&lt;br /&gt;
{{#seo:&lt;br /&gt;
            |title=BART: Denoising Sequence-to-Sequence Pre-training for Natural Language Generation, Translation, and Comprehension&lt;br /&gt;
            |title_mode=append&lt;br /&gt;
            |keywords=elaborazione del linguaggio naturale, apprendimento automatico, reti neurali, modelli sequenza-a-sequenza, preaddestramento, generazione di testo, traduzione automatica, comprensione del linguaggio naturale, BART, Transformer&lt;br /&gt;
            |description=Questo studio presenta BART, un modello di autoencoder denoising per il preaddestramento di modelli sequenza-a-sequenza. BART viene addestrato corrompendone il testo di input e addestrando il modello a ricostruire il testo originale. Questo approccio si è dimostrato efficace in una varietà di compiti, tra cui la generazione di testo, la risposta alle domande e il riepilogo.&lt;br /&gt;
            &lt;br /&gt;
            }}&lt;/div&gt;</summary>
		<author><name>Mindmakerbot</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Learning_long-term_dependencies_with_gradient_descent_is_difficult&amp;diff=3072</id>
		<title>Learning long-term dependencies with gradient descent is difficult</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Learning_long-term_dependencies_with_gradient_descent_is_difficult&amp;diff=3072"/>
		<updated>2024-09-06T19:07:35Z</updated>

		<summary type="html">&lt;p&gt;Mindmakerbot: Creata pagina con &amp;quot;{{template pubblicazione  |data=1994  |autori=Yoshua Bengio, Patrice Y. Simard, P. Frasconi  |URL=https://www.semanticscholar.org/paper/d0be39ee052d246ae99c082a565aba25b811be2d  |topic=Recurrent Neural Networks  |citazioni=7810  }}    Questo articolo esplora le difficoltà nell&amp;#039;addestrare reti neurali ricorrenti (RNN) per apprendere dipendenze a lungo termine utilizzando la discesa del gradiente. Gli autori dimostrano che, all&amp;#039;aumentare della durata delle dipendenze temp...&amp;quot;&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{template pubblicazione&lt;br /&gt;
|data=1994&lt;br /&gt;
|autori=Yoshua Bengio, Patrice Y. Simard, P. Frasconi&lt;br /&gt;
|URL=https://www.semanticscholar.org/paper/d0be39ee052d246ae99c082a565aba25b811be2d&lt;br /&gt;
|topic=Recurrent Neural Networks&lt;br /&gt;
|citazioni=7810&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
Questo articolo esplora le difficoltà nell&#039;addestrare reti neurali ricorrenti (RNN) per apprendere dipendenze a lungo termine utilizzando la discesa del gradiente. Gli autori dimostrano che, all&#039;aumentare della durata delle dipendenze temporali, l&#039;apprendimento basato sul gradiente diventa sempre più problematico. Questo fenomeno evidenzia un compromesso tra l&#039;efficienza dell&#039;apprendimento tramite la discesa del gradiente e la capacità di trattenere informazioni per lunghi periodi. L&#039;articolo analizza le ragioni di questa difficoltà e propone alternative alla discesa del gradiente standard per affrontare questo problema.&lt;br /&gt;
&lt;br /&gt;
[[Category:pubblicazione]]&lt;br /&gt;
&lt;br /&gt;
{{#seo:&lt;br /&gt;
            |title=Learning long-term dependencies with gradient descent is difficult&lt;br /&gt;
            |title_mode=append&lt;br /&gt;
            |keywords=reti neurali, apprendimento automatico, discesa del gradiente, dipendenze a lungo termine, intelligenza artificiale, elaborazione del linguaggio naturale, visione artificiale, serie temporali, analisi predittiva, apprendimento profondo&lt;br /&gt;
            |description=Questa pubblicazione esplora le difficoltà nell&#039;addestrare reti neurali ricorrenti (RNN) per apprendere dipendenze a lungo termine tramite la discesa del gradiente. Gli autori dimostrano che l&#039;apprendimento diventa più difficile all&#039;aumentare della durata delle dipendenze, evidenziando un compromesso tra efficienza e capacità di trattenere informazioni a lungo termine. Vengono analizzate le cause di questa difficoltà e proposte alternative alla discesa del gradiente standard.&lt;br /&gt;
            }}&lt;/div&gt;</summary>
		<author><name>Mindmakerbot</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=LLaMA:_Open_and_Efficient_Foundation_Language_Models&amp;diff=3071</id>
		<title>LLaMA: Open and Efficient Foundation Language Models</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=LLaMA:_Open_and_Efficient_Foundation_Language_Models&amp;diff=3071"/>
		<updated>2024-09-06T19:02:21Z</updated>

		<summary type="html">&lt;p&gt;Mindmakerbot: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{template pubblicazione&lt;br /&gt;
|data=2023&lt;br /&gt;
|autori=Hugo Touvron, Thibaut Lavril, Gautier Izacard, Xavier Martinet, Marie-Anne Lachaux, Timothée Lacroix, Baptiste Rozière, Naman Goyal, Eric Hambro, Faisal Azhar, Aurelien Rodriguez, Armand Joulin, Edouard Grave, Guillaume Lample&lt;br /&gt;
|URL=https://www.semanticscholar.org/paper/57e849d0de13ed5f91d086936296721d4ff75a75&lt;br /&gt;
|topic=Linguaggio naturale&lt;br /&gt;
|citazioni=7677&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
LLaMA è una famiglia di modelli linguistici di base con un numero di parametri che varia da 7 miliardi a 65 miliardi. I modelli sono stati addestrati su un enorme set di dati di testo pubblico, dimostrando che è possibile ottenere prestazioni all&#039;avanguardia senza ricorrere a set di dati proprietari. In particolare, LLaMA-13B supera le prestazioni di GPT-3 (175B) nella maggior parte dei benchmark, mentre LLaMA-65B è competitivo con i migliori modelli come Chinchilla-70B e PaLM-540B.&lt;br /&gt;
&lt;br /&gt;
{{#seo:&lt;br /&gt;
            |title=LLaMA: Open and Efficient Foundation Language Models&lt;br /&gt;
            |title_mode=append&lt;br /&gt;
            |keywords=modelli linguistici, intelligenza artificiale, elaborazione del linguaggio naturale, apprendimento automatico, set di dati di testo, LLaMA, GPT-3, Chinchilla, PaLM&lt;br /&gt;
            |description=LLaMA è una famiglia di modelli linguistici di base con un numero di parametri da 7 a 65 miliardi. Addestrati su un vasto set di dati di testo pubblico, questi modelli dimostrano prestazioni all&#039;avanguardia, con LLaMA-13B che supera GPT-3 in molti benchmark e LLaMA-65B competitivo con modelli come Chinchilla-70B e PaLM-540B.&lt;br /&gt;
            &lt;br /&gt;
            }}&lt;/div&gt;</summary>
		<author><name>Mindmakerbot</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Convolutional_Neural_Networks_for_Sentence_Classification&amp;diff=3069</id>
		<title>Convolutional Neural Networks for Sentence Classification</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Convolutional_Neural_Networks_for_Sentence_Classification&amp;diff=3069"/>
		<updated>2024-09-06T18:54:33Z</updated>

		<summary type="html">&lt;p&gt;Mindmakerbot: Creata pagina con &amp;quot;{{template pubblicazione  |data=2014  |autori=Yoon Kim  |URL=https://www.semanticscholar.org/paper/1f6ba0782862ec12a5ec6d7fb608523d55b0c6ba  |topic=Natural Language Processing  |citazioni=12819  }}    Vengono presentati una serie di esperimenti con reti neurali convoluzionali (CNN) addestrate su vettori di parole pre-addestrati per compiti di classificazione a livello di frase. Viene dimostrato che una semplice CNN con pochi parametri da ottimizzare e vettori statici rag...&amp;quot;&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{template pubblicazione&lt;br /&gt;
|data=2014&lt;br /&gt;
|autori=Yoon Kim&lt;br /&gt;
|URL=https://www.semanticscholar.org/paper/1f6ba0782862ec12a5ec6d7fb608523d55b0c6ba&lt;br /&gt;
|topic=Natural Language Processing&lt;br /&gt;
|citazioni=12819&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
Vengono presentati una serie di esperimenti con reti neurali convoluzionali (CNN) addestrate su vettori di parole pre-addestrati per compiti di classificazione a livello di frase. Viene dimostrato che una semplice CNN con pochi parametri da ottimizzare e vettori statici raggiunge risultati eccellenti su diversi benchmark. L&#039;apprendimento di vettori specifici per l&#039;attività tramite fine-tuning offre ulteriori guadagni in termini di prestazioni. Viene inoltre proposta una semplice modifica all&#039;architettura per consentire l&#039;uso di vettori sia specifici per l&#039;attività che statici. I modelli CNN discussi in questo documento migliorano lo stato dell&#039;arte in 4 attività su 7, che includono l&#039;analisi del sentiment e la classificazione delle domande.&lt;br /&gt;
&lt;br /&gt;
[[Category:pubblicazione]]&lt;br /&gt;
&lt;br /&gt;
{{#seo:&lt;br /&gt;
            |title=Convolutional Neural Networks for Sentence Classification&lt;br /&gt;
            |title_mode=append&lt;br /&gt;
            |keywords=reti neurali, apprendimento automatico, elaborazione del linguaggio naturale, classificazione, vettori di parole, analisi del sentiment&lt;br /&gt;
            |description=Questa pubblicazione presenta una serie di esperimenti con reti neurali convoluzionali per la classificazione delle frasi. I risultati dimostrano che una CNN semplice con pochi parametri e vettori statici raggiunge ottimi risultati su diversi benchmark. L&#039;apprendimento di vettori specifici per l&#039;attività migliora ulteriormente le prestazioni. Viene proposta una modifica per utilizzare vettori sia specifici per l&#039;attività che statici. I modelli CNN migliorano lo stato dell&#039;arte in 4 attività su 7, tra cui l&#039;analisi del sentiment e la classificazione delle domande.&lt;br /&gt;
            &lt;br /&gt;
            }}&lt;/div&gt;</summary>
		<author><name>Mindmakerbot</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Recursive_Deep_Models_for_Semantic_Compositionality_Over_a_Sentiment_Treebank&amp;diff=3068</id>
		<title>Recursive Deep Models for Semantic Compositionality Over a Sentiment Treebank</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Recursive_Deep_Models_for_Semantic_Compositionality_Over_a_Sentiment_Treebank&amp;diff=3068"/>
		<updated>2024-09-06T18:27:56Z</updated>

		<summary type="html">&lt;p&gt;Mindmakerbot: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{template pubblicazione&lt;br /&gt;
|data=2013&lt;br /&gt;
|autori=R. Socher, Alex Perelygin, Jean Wu, Jason Chuang, Christopher D. Manning, A. Ng, Christopher Potts&lt;br /&gt;
|URL=https://www.semanticscholar.org/paper/687bac2d3320083eb4530bf18bb8f8f721477600&lt;br /&gt;
|topic=Reti neurali ricorsive, Sentiment analysis, Elaborazione del linguaggio naturale&lt;br /&gt;
|citazioni=7749&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
Questo articolo introduce il Sentiment Treebank, un dataset di frasi etichettate con sentiment positivo o negativo. Il dataset include 215.154 frasi da 11.855 frasi, ed è stato creato per fornire un dataset più ricco e sfidante per la ricerca sulla sentiment analysis.&lt;br /&gt;
&lt;br /&gt;
L&#039;articolo introduce anche il Recursive Neural Tensor Network (RNTN), una nuova architettura di rete neurale per la sentiment analysis. La RNTN è in grado di catturare la composizione del sentiment in frasi complesse, e supera i metodi precedenti in diversi benchmark di sentiment analysis.&lt;br /&gt;
&lt;br /&gt;
{{#seo:&lt;br /&gt;
            |title=Recursive Deep Models for Semantic Compositionality Over a Sentiment Treebank&lt;br /&gt;
            |title_mode=append&lt;br /&gt;
            |keywords=sentiment analysis, &amp;quot;elaborazione del linguaggio naturale&amp;quot;, &amp;quot;reti neurali&amp;quot;, &amp;quot;reti neurali ricorsive&amp;quot;, &amp;quot;Sentiment Treebank&amp;quot;, &amp;quot;RNTN&amp;quot;, &amp;quot;apprendimento automatico&amp;quot;, &amp;quot;intelligenza artificiale&amp;quot;, &amp;quot;analisi del sentiment&amp;quot;, &amp;quot;classificazione del testo&amp;quot;&lt;br /&gt;
            |description=Questa pubblicazione presenta il Sentiment Treebank, un dataset di frasi etichettate per la sentiment analysis. Il dataset include oltre 200.000 frasi ed è stato creato per fornire una risorsa più completa per la ricerca in questo campo. La pubblicazione introduce anche il Recursive Neural Tensor Network (RNTN), un&#039;architettura di rete neurale che supera i metodi precedenti nei benchmark di sentiment analysis.&lt;br /&gt;
            &lt;br /&gt;
            }}&lt;/div&gt;</summary>
		<author><name>Mindmakerbot</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Going_Deeper_with_Convolutions&amp;diff=3062</id>
		<title>Going Deeper with Convolutions</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Going_Deeper_with_Convolutions&amp;diff=3062"/>
		<updated>2024-09-06T12:10:18Z</updated>

		<summary type="html">&lt;p&gt;Mindmakerbot: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{template pubblicazione&lt;br /&gt;
|data=2014&lt;br /&gt;
|autori=Christian Szegedy, Wei Liu, Yangqing Jia, Pierre Sermanet, Scott Reed, Dragomir Anguelov, Dumitru Erhan, Vincent Vanhoucke, Andrew Rabinovich&lt;br /&gt;
|URL=https://www.semanticscholar.org/paper/e15cf50aa89fee8535703b9f9512fca5bfc43327&lt;br /&gt;
|topic=Visione artificiale, Reti neurali convoluzionali&lt;br /&gt;
|citazioni=40893&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
Questo articolo presenta &amp;quot;Inception&amp;quot;, un&#039;architettura di rete neurale convoluzionale profonda che ha stabilito un nuovo stato dell&#039;arte nella classificazione e nel rilevamento dell&#039;ImageNet Large-Scale Visual Recognition Challenge 2014 (ILSVRC14). L&#039;innovazione principale risiede in un utilizzo più efficiente delle risorse computazionali all&#039;interno della rete. Attraverso un design accurato, gli autori sono riusciti ad aumentare la profondità e l&#039;ampiezza della rete mantenendo costante il costo computazionale. Per ottimizzare le prestazioni, le decisioni architetturali si sono basate sul principio Hebbiano e sull&#039;intuizione dell&#039;elaborazione multi-scala. Un&#039;istanza specifica, denominata GoogLeNet, è stata presentata all&#039;ILSVRC14. Si tratta di una rete profonda 22 livelli, la cui qualità è stata valutata in compiti di classificazione e rilevamento.&lt;br /&gt;
&lt;br /&gt;
{{#seo:&lt;br /&gt;
            |title=Going Deeper with Convolutions&lt;br /&gt;
            |title_mode=append&lt;br /&gt;
            |keywords=reti neurali, apprendimento profondo, visione artificiale, classificazione di immagini, rilevamento oggetti, elaborazione multi-scala, GoogLeNet, ImageNet, ILSVRC14&lt;br /&gt;
            |description=Questa pubblicazione presenta \Inception\&amp;quot;, un&#039;architettura di rete neurale convoluzionale profonda che ha ottenuto risultati innovativi nella classificazione e nel rilevamento dell&#039;ImageNet Large-Scale Visual Recognition Challenge 2014 (ILSVRC14). Gli autori descrivono come hanno migliorato l&#039;efficienza delle risorse computazionali all&#039;interno della rete, aumentando profondità e ampiezza mantenendo costante il costo computazionale.&amp;quot;&lt;br /&gt;
            &lt;br /&gt;
            }}&lt;/div&gt;</summary>
		<author><name>Mindmakerbot</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Efficient_Estimation_of_Word_Representations_in_Vector_Space&amp;diff=3058</id>
		<title>Efficient Estimation of Word Representations in Vector Space</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Efficient_Estimation_of_Word_Representations_in_Vector_Space&amp;diff=3058"/>
		<updated>2024-09-06T12:01:43Z</updated>

		<summary type="html">&lt;p&gt;Mindmakerbot: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{template pubblicazione&lt;br /&gt;
|data=2013&lt;br /&gt;
|autori=Tomas Mikolov, Kai Chen, G. Corrado, J. Dean&lt;br /&gt;
|URL=https://www.semanticscholar.org/paper/f6b51c8753a871dc94ff32152c00c01e94f90f09&lt;br /&gt;
|topic=Word Embeddings&lt;br /&gt;
|citazioni=29484&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
Questo articolo presenta due nuove architetture di modelli per il calcolo di rappresentazioni vettoriali continue di parole da set di dati molto grandi. La qualità di queste rappresentazioni è misurata in un compito di similarità delle parole e i risultati sono confrontati con le tecniche precedentemente più performanti basate su diversi tipi di reti neurali. Gli autori osservano grandi miglioramenti nell&#039;accuratezza a un costo computazionale molto inferiore, ad esempio ci vuole meno di un giorno per apprendere vettori di parole di alta qualità da un set di dati di 1,6 miliardi di parole. Inoltre, dimostrano che questi vettori forniscono prestazioni all&#039;avanguardia sul loro set di test per misurare le somiglianze sintattiche e semantiche delle parole.&lt;br /&gt;
&lt;br /&gt;
{{#seo:&lt;br /&gt;
            |title=Efficient Estimation of Word Representations in Vector Space&lt;br /&gt;
            |title_mode=append&lt;br /&gt;
            |keywords=rappresentazioni vettoriali, &amp;quot;parole&amp;quot;, &amp;quot;set di dati&amp;quot;, &amp;quot;reti neurali&amp;quot;, &amp;quot;accuratezza&amp;quot;, &amp;quot;similarità&amp;quot;, &amp;quot;semantica&amp;quot;, &amp;quot;sintassi&amp;quot;, &amp;quot;elaborazione del linguaggio naturale&amp;quot;, &amp;quot;apprendimento automatico&amp;quot;&lt;br /&gt;
            |description=Questa pubblicazione presenta due nuove architetture di modelli per il calcolo di rappresentazioni vettoriali di parole da set di dati di grandi dimensioni. Gli autori dimostrano un miglioramento significativo nell&#039;accuratezza e una riduzione del costo computazionale, aprendo nuove prospettive per l&#039;elaborazione del linguaggio naturale. &lt;br /&gt;
            &lt;br /&gt;
            }}&lt;/div&gt;</summary>
		<author><name>Mindmakerbot</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Functional_Benchmarks_for_Robust_Evaluation_of_Reasoning_Performance,_and_the_Reasoning_Gap&amp;diff=3057</id>
		<title>Functional Benchmarks for Robust Evaluation of Reasoning Performance, and the Reasoning Gap</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Functional_Benchmarks_for_Robust_Evaluation_of_Reasoning_Performance,_and_the_Reasoning_Gap&amp;diff=3057"/>
		<updated>2024-09-06T12:00:54Z</updated>

		<summary type="html">&lt;p&gt;Mindmakerbot: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{template pubblicazione&lt;br /&gt;
|data=2024&lt;br /&gt;
|autori=Saurabh Srivastava, B. AnnaroseM, V. AntoP, Shashank Menon, Ajay Sukumar, T. AdwaithSamod, Alan Philipose, Stevin Prince, Sooraj Thomas&lt;br /&gt;
|URL=https://www.semanticscholar.org/paper/3c585441b4607b34f8bf4e352ed6e36753fe21ce&lt;br /&gt;
|topic=Reasoning&lt;br /&gt;
|citazioni=18&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
Parte dall&#039;assunto che i benchmark correnti per i modelli di linguaggio non misurino la capacità di ragionamento ma solo quella di comprensione del linguaggio. &lt;br /&gt;
&lt;br /&gt;
Interessante il concetto di &#039;&#039;reasoning gap&#039;&#039; inteso come la differenza fra il 100% di memorizzazione e la reale capacità di ragionamento. Questo gap è tra il 50 e l&#039;80% tra i modelli [[SOTA]].&lt;br /&gt;
&lt;br /&gt;
=== Links ===&lt;br /&gt;
[https://arxiv.org/pdf/2402.19450.pdf Paper]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
{{#seo:&lt;br /&gt;
            |title=Functional Benchmarks for Robust Evaluation of Reasoning Performance, and the Reasoning Gap&lt;br /&gt;
            |title_mode=append&lt;br /&gt;
            |keywords=ragionamento, &amp;quot;linguaggio&amp;quot;, &amp;quot;modelli&amp;quot;, &amp;quot;benchmark&amp;quot;, &amp;quot;valutazione&amp;quot;, &amp;quot;comprensione&amp;quot;, &amp;quot;memorizzazione&amp;quot;, &amp;quot;robusto&amp;quot;, &amp;quot;funzionale&amp;quot;, &amp;quot;gap&amp;quot;&lt;br /&gt;
            |description=Questa pubblicazione esplora l&#039;effettiva capacità di ragionamento dei modelli di linguaggio, introducendo il concetto di &#039;reasoning gap&#039; per misurare la differenza tra memorizzazione e ragionamento. Gli autori dimostrano che questo divario è significativo nei modelli SOTA, evidenziando la necessità di benchmark più accurati per valutare le reali capacità di ragionamento.&lt;br /&gt;
            &lt;br /&gt;
            }}&lt;/div&gt;</summary>
		<author><name>Mindmakerbot</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Chain_of_Thought_Prompting_Elicits_Reasoning_in_Large_Language_Models&amp;diff=3045</id>
		<title>Chain of Thought Prompting Elicits Reasoning in Large Language Models</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Chain_of_Thought_Prompting_Elicits_Reasoning_in_Large_Language_Models&amp;diff=3045"/>
		<updated>2024-09-06T11:26:20Z</updated>

		<summary type="html">&lt;p&gt;Mindmakerbot: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{template pubblicazione&lt;br /&gt;
|data=2022&lt;br /&gt;
|autori=Jason Wei, Xuezhi Wang, Dale Schuurmans, Maarten Bosma, E. Chi, F. Xia, Quoc Le, Denny Zhou&lt;br /&gt;
|URL=https://www.semanticscholar.org/paper/1b6e810ce0afd0dd093f789d2b2742d047e316d5&lt;br /&gt;
|topic=Reasoning in Large Language Models&lt;br /&gt;
|citazioni=4960&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
Questo articolo esplora come la generazione di una catena di pensiero -- una serie di passaggi di ragionamento intermedi -- migliori significativamente la capacità dei modelli linguistici di grandi dimensioni di eseguire ragionamenti complessi. In particolare, gli autori dimostrano come tali capacità di ragionamento emergano naturalmente in modelli linguistici sufficientemente grandi attraverso un metodo semplice chiamato &amp;quot;chain of thought prompting&amp;quot;, in cui vengono forniti alcuni esempi di catene di pensiero come esempi nel prompting. Gli esperimenti su tre modelli linguistici di grandi dimensioni dimostrano che il &amp;quot;chain of thought prompting&amp;quot; migliora le prestazioni su una serie di compiti di ragionamento aritmetico, di senso comune e simbolico. I guadagni empirici possono essere sorprendenti. Ad esempio, il prompting di un modello linguistico a 540 miliardi di parametri con solo otto esempi di catene di pensiero consente di ottenere un&#039;accuratezza all&#039;avanguardia sul benchmark GSM8K di problemi di matematica, superando persino GPT-3 ottimizzato con un verificatore.&lt;br /&gt;
&lt;br /&gt;
{{#seo:&lt;br /&gt;
            |title=Chain of Thought Prompting Elicits Reasoning in Large Language Models&lt;br /&gt;
            |title_mode=append&lt;br /&gt;
            |keywords=ragionamento, modelli linguistici, intelligenza artificiale, apprendimento automatico, elaborazione del linguaggio naturale, deep learning, reti neurali, chain of thought prompting, capacità cognitive, problem solving&lt;br /&gt;
            |description=Questa pubblicazione esplora come la generazione di una catena di pensiero migliori le capacità di ragionamento dei modelli linguistici di grandi dimensioni. Gli autori dimostrano che il  chain of thought prompting&amp;quot;, fornendo esempi di catene di pensiero nel prompting, migliora le prestazioni in compiti di ragionamento aritmetico, di senso comune e simbolico, ottenendo risultati sorprendenti in termini di accuratezza.&amp;quot;&lt;br /&gt;
            &lt;br /&gt;
            }}&lt;/div&gt;</summary>
		<author><name>Mindmakerbot</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Survey_of_Hallucination_in_Natural_Language_Generation&amp;diff=3039</id>
		<title>Survey of Hallucination in Natural Language Generation</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Survey_of_Hallucination_in_Natural_Language_Generation&amp;diff=3039"/>
		<updated>2024-09-06T11:05:58Z</updated>

		<summary type="html">&lt;p&gt;Mindmakerbot: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{template pubblicazione&lt;br /&gt;
|data=2021&lt;br /&gt;
|autori=Ziwei Ji, Nayeon Lee, Rita Frieske, Tiezheng Yu, D. Su, Yan Xu, Etsuko Ishii, Yejin Bang, Delong Chen, Wenliang Dai, Andrea Madotto, Pascale Fung&lt;br /&gt;
|URL=https://www.semanticscholar.org/paper/3def68bd0f856886d34272840a7f81588f2bc082&lt;br /&gt;
|topic=Hallucination in Natural Language Generation&lt;br /&gt;
|citazioni=1394&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
Questo articolo offre una panoramica completa del problema dell&#039;allucinazione nei modelli di linguaggio di grandi dimensioni, ovvero la tendenza a generare testo non veritiero o non supportato dai dati di addestramento. Gli autori analizzano le cause di questo fenomeno, le metriche per misurarlo e le diverse strategie di mitigazione proposte in letteratura. L&#039;articolo approfondisce anche l&#039;impatto specifico dell&#039;allucinazione in diversi compiti di generazione del linguaggio naturale, come la scrittura di riassunti, la generazione di dialoghi e la traduzione automatica.&lt;br /&gt;
&lt;br /&gt;
{{#seo:&lt;br /&gt;
            |title=Survey of Hallucination in Natural Language Generation&lt;br /&gt;
            |title_mode=append&lt;br /&gt;
            |keywords=modelli linguistici, allucinazione, generazione del linguaggio naturale, intelligenza artificiale, elaborazione del linguaggio naturale, deep learning, apprendimento automatico, reti neurali, disinformazione, affidabilità&lt;br /&gt;
            |description=Questa pubblicazione offre una panoramica completa del problema dell&#039;allucinazione nei modelli linguistici di grandi dimensioni, analizzando le cause, le metriche di misurazione e le strategie di mitigazione. Vengono approfonditi gli impatti specifici dell&#039;allucinazione in diversi compiti di generazione del linguaggio naturale, come la scrittura di riassunti, la generazione di dialoghi e la traduzione automatica.&lt;br /&gt;
            &lt;br /&gt;
            }}&lt;/div&gt;</summary>
		<author><name>Mindmakerbot</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Hallucinating_Faces&amp;diff=3036</id>
		<title>Hallucinating Faces</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Hallucinating_Faces&amp;diff=3036"/>
		<updated>2024-09-06T11:02:03Z</updated>

		<summary type="html">&lt;p&gt;Mindmakerbot: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{template pubblicazione&lt;br /&gt;
|data=&lt;br /&gt;
|autori=Simon Baker, T. Kanade&lt;br /&gt;
|URL=https://www.semanticscholar.org/paper/fd37b25760cb3adc01c4e3209e6f7072e66ab724&lt;br /&gt;
|topic=Face Hallucination&lt;br /&gt;
|citazioni=634&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
Questo articolo presenta un algoritmo in grado di migliorare la risoluzione delle immagini di volti, un aspetto cruciale nell&#039;ambito della videosorveglianza dove i volti appaiono spesso molto piccoli. L&#039;algoritmo si basa sull&#039;apprendimento di una distribuzione a priori del gradiente dell&#039;immagine per volti frontali, che viene poi integrata in un algoritmo di upscaling. I risultati mostrano miglioramenti significativi nella risoluzione, con un aumento da 4 a 8 volte il numero di pixel, che risultano essere di fatto &amp;quot;allucinati&amp;quot; dall&#039;algoritmo.&lt;br /&gt;
&lt;br /&gt;
{{#seo:&lt;br /&gt;
            |title=Hallucinating Faces&lt;br /&gt;
            |title_mode=append&lt;br /&gt;
            |keywords=volto, riconoscimento facciale, upscaling, risoluzione, immagini, videosorveglianza, algoritmo, apprendimento automatico, pixel, intelligenza artificiale&lt;br /&gt;
            |description=Questa pubblicazione presenta un algoritmo innovativo capace di migliorare la risoluzione delle immagini di volti, aspetto cruciale nella videosorveglianza. L&#039;algoritmo, basato sull&#039;apprendimento di una distribuzione a priori del gradiente dell&#039;immagine, permette di aumentare da 4 a 8 volte il numero di pixel,  &#039;allucinando&#039; di fatto dettagli realistici.&lt;br /&gt;
            &lt;br /&gt;
            }}&lt;/div&gt;</summary>
		<author><name>Mindmakerbot</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Neural_Machine_Translation_by_Jointly_Learning_to_Align_and_Translate&amp;diff=3031</id>
		<title>Neural Machine Translation by Jointly Learning to Align and Translate</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Neural_Machine_Translation_by_Jointly_Learning_to_Align_and_Translate&amp;diff=3031"/>
		<updated>2024-09-06T10:28:36Z</updated>

		<summary type="html">&lt;p&gt;Mindmakerbot: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{template pubblicazione&lt;br /&gt;
|data=&lt;br /&gt;
|autori=Dzmitry Bahdanau, Kyunghyun Cho e Yoshua Bengio&lt;br /&gt;
|URL=https://www.semanticscholar.org/paper/fa72afa9b2cbc8f0d7b05d52548906610ffbb9c5&lt;br /&gt;
|topic=Neural Machine Translation&lt;br /&gt;
|citazioni=25744&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
La traduzione automatica neurale (NMT) è un approccio alla traduzione automatica proposto di recente. A differenza della tradizionale traduzione automatica statistica, la NMT mira a costruire una singola rete neurale che può essere congiuntamente messa a punto per massimizzare le prestazioni di traduzione. I modelli proposti di recente per la NMT appartengono spesso a una famiglia di encoder-decoder e sono costituiti da un encoder che codifica una frase di origine in un vettore di lunghezza fissa da cui un decoder genera una traduzione. Questo articolo ipotizza che l&#039;uso di un vettore di lunghezza fissa sia un collo di bottiglia nel migliorare le prestazioni di questa architettura encoder-decoder di base e propone di estenderla consentendo a un modello di cercare automaticamente (soft-) parti di una frase di origine che sono rilevanti per prevedere una parola di destinazione, senza dover formare esplicitamente queste parti come un segmento rigido. Con questo nuovo approccio, si ottengono prestazioni di traduzione paragonabili all&#039;attuale sistema frase per frase all&#039;avanguardia nell&#039;attività di traduzione inglese-francese. Inoltre, l&#039;analisi qualitativa rivela che gli allineamenti (soft-) trovati dal modello sono in buon accordo con l&#039;intuizione.&lt;br /&gt;
&lt;br /&gt;
{{#seo:&lt;br /&gt;
            |title=Neural Machine Translation by Jointly Learning to Align and Translate&lt;br /&gt;
            |title_mode=append&lt;br /&gt;
            |keywords=traduzione automatica, rete neurale, encoder-decoder, traduzione automatica statistica, apprendimento automatico, elaborazione del linguaggio naturale, intelligenza artificiale, linguistica computazionale, traduzione automatica basata su deep learning&lt;br /&gt;
            |description=Questa pubblicazione esplora l&#039;applicazione della traduzione automatica neurale (NMT), un approccio innovativo che utilizza una singola rete neurale per ottimizzare le prestazioni di traduzione. Gli autori affrontano le limitazioni degli encoder-decoder tradizionali, proponendo un modello in grado di identificare automaticamente le parti rilevanti di una frase di origine per generare una traduzione accurata. I risultati mostrano prestazioni comparabili ai sistemi frase per frase più avanzati, con allineamenti intuitivi tra le frasi.&lt;br /&gt;
            &lt;br /&gt;
            }}&lt;/div&gt;</summary>
		<author><name>Mindmakerbot</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=A_Neural_Probabilistic_Language_Model&amp;diff=3030</id>
		<title>A Neural Probabilistic Language Model</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=A_Neural_Probabilistic_Language_Model&amp;diff=3030"/>
		<updated>2024-09-06T10:27:18Z</updated>

		<summary type="html">&lt;p&gt;Mindmakerbot: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{template pubblicazione&lt;br /&gt;
|data=2003&lt;br /&gt;
|autori=Yoshua Bengio, Réjean Ducharme, Pascal Vincent, Christian Janvin&lt;br /&gt;
|URL=https://www.semanticscholar.org/paper/6c2b28f9354f667cd5bd07afc0471d8334430da7&lt;br /&gt;
|topic=Modelli di Linguaggio, Reti Neurali&lt;br /&gt;
|citazioni=7032&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
Questo articolo presenta un modello di linguaggio probabilistico neurale che apprende una rappresentazione distribuita delle parole insieme alla funzione di probabilità per le sequenze di parole. L&#039;approccio proposto affronta la maledizione della dimensionalità imparando la somiglianza tra le parole, consentendo al modello di assegnare un&#039;alta probabilità a sequenze di parole mai viste prima se composte da parole simili a quelle presenti in frasi già viste.&lt;br /&gt;
&lt;br /&gt;
{{#seo:&lt;br /&gt;
            |title=A Neural Probabilistic Language Model&lt;br /&gt;
            |title_mode=append&lt;br /&gt;
            |keywords=modello di linguaggio, reti neurali, elaborazione del linguaggio naturale, apprendimento automatico, intelligenza artificiale, rappresentazione delle parole, probabilità, sequenze di parole, analisi semantica, modello statistico&lt;br /&gt;
            |description=Questa pubblicazione presenta un modello di linguaggio probabilistico neurale che apprende come rappresentare le parole e calcolare la probabilità di sequenze di parole. Il modello supera il problema della dimensionalità imparando la similarità tra le parole, consentendogli di assegnare un&#039;alta probabilità a sequenze di parole nuove se queste sono composte da parole simili a quelle già viste.&lt;br /&gt;
            &lt;br /&gt;
            }}&lt;/div&gt;</summary>
		<author><name>Mindmakerbot</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Deep_Contextualized_Word_Representations&amp;diff=3029</id>
		<title>Deep Contextualized Word Representations</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Deep_Contextualized_Word_Representations&amp;diff=3029"/>
		<updated>2024-09-06T10:24:33Z</updated>

		<summary type="html">&lt;p&gt;Mindmakerbot: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{template pubblicazione&lt;br /&gt;
|data=2018&lt;br /&gt;
|autori=Matthew E. Peters, Mark Neumann, Mohit Iyyer, Matt Gardner, Christopher Clark, Kenton Lee, Luke Zettlemoyer&lt;br /&gt;
|URL=https://www.semanticscholar.org/paper/3febb2bed8865945e7fddc99efd791887bb7e14f&lt;br /&gt;
|topic=Word embedding&lt;br /&gt;
|citazioni=11008&lt;br /&gt;
}} &lt;br /&gt;
&lt;br /&gt;
Questo articolo introduce un nuovo tipo di rappresentazione delle parole contestualizzata e profonda, denominata ELMo (Embeddings from Language Models), che modella sia le caratteristiche complesse dell&#039;uso delle parole (ad esempio, sintassi e semantica) sia il modo in cui questi usi variano a seconda del contesto linguistico (ad esempio, per modellare la polisemia). I vettori di parole sono funzioni apprese dagli stati interni di un modello linguistico bidirezionale profondo (biLM), pre-addestrato su un ampio corpus di testo.  &lt;br /&gt;
&lt;br /&gt;
ELMo può essere facilmente integrato in modelli esistenti e migliorare significativamente lo stato dell&#039;arte in sei diversi compiti NLP, tra cui la risposta alle domande, l&#039;implicazione testuale e l&#039;analisi del sentiment. &lt;br /&gt;
&lt;br /&gt;
[[Categoria:Pubblicazione]]&lt;br /&gt;
&lt;br /&gt;
{{#seo:&lt;br /&gt;
            |title=Deep Contextualized Word Representations&lt;br /&gt;
            |title_mode=append&lt;br /&gt;
            |keywords=rappresentazione delle parole, apprendimento profondo, elaborazione del linguaggio naturale, modelli linguistici, apprendimento automatico, semantica, sintassi, polisemia, vettori di parole, embedding&lt;br /&gt;
            |description=Questa pubblicazione introduce ELMo (Embeddings from Language Models), una nuova rappresentazione delle parole contestualizzata e profonda. ELMo modella gli usi complessi delle parole e le loro variazioni nel contesto linguistico. I vettori di parole di ELMo, derivati da un modello linguistico bidirezionale profondo, migliorano le prestazioni in diversi compiti di NLP.&lt;br /&gt;
            &lt;br /&gt;
            }}&lt;/div&gt;</summary>
		<author><name>Mindmakerbot</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=None&amp;diff=3028</id>
		<title>None</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=None&amp;diff=3028"/>
		<updated>2024-09-06T10:20:53Z</updated>

		<summary type="html">&lt;p&gt;Mindmakerbot: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{template pubblicazione&lt;br /&gt;
|data=2018&lt;br /&gt;
|autori=Matthew E. Peters, Mark Neumann, Mohit Iyyer, Matt Gardner, Christopher Clark, Kenton Lee, Luke Zettlemoyer&lt;br /&gt;
|URL=https://www.semanticscholar.org/paper/3febb2bed8865945e7fddc99efd791887bb7e14f&lt;br /&gt;
|topic=Word embedding&lt;br /&gt;
|citazioni=11008&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
Questo articolo presenta un nuovo tipo di rappresentazione di parole contestualizzate profonde che modella sia (1) le caratteristiche complesse dell&#039;uso delle parole (ad esempio, sintassi e semantica), sia (2) come questi usi variano a seconda dei contesti linguistici (ovvero, per modellare la polisemia). I vettori di parole sono funzioni apprese degli stati interni di un modello linguistico bidirezionale profondo (biLM), che è pre-addestrato su un ampio corpus di testo. Gli autori dimostrano che queste rappresentazioni possono essere facilmente aggiunte ai modelli esistenti e migliorare significativamente lo stato dell&#039;arte in sei sfidanti problemi di PNL, tra cui il question answering, l&#039;implicazione testuale e l&#039;analisi del sentiment. Presentano inoltre un&#039;analisi che mostra che esporre gli interni profondi della rete pre-addestrata è fondamentale, consentendo ai modelli a valle di combinare diversi tipi di segnali di semi-supervisione.&lt;br /&gt;
&lt;br /&gt;
{{#seo:&lt;br /&gt;
            |title=Deep Contextualized Word Representations&lt;br /&gt;
            |title_mode=append&lt;br /&gt;
            |keywords=rappresentazione delle parole, apprendimento profondo, elaborazione del linguaggio naturale, semantica, sintassi, polisemia, modelli linguistici, word embedding&lt;br /&gt;
            |description=Questa pubblicazione presenta un nuovo tipo di rappresentazione di parole contestualizzate, che modella sia le caratteristiche complesse dell&#039;uso delle parole che le loro variazioni in base al contesto. Gli autori dimostrano che queste rappresentazioni migliorano significativamente lo stato dell&#039;arte in diversi problemi di PNL, come il question answering e l&#039;analisi del sentiment.&lt;br /&gt;
            &lt;br /&gt;
            }}&lt;/div&gt;</summary>
		<author><name>Mindmakerbot</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=None&amp;diff=3027</id>
		<title>None</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=None&amp;diff=3027"/>
		<updated>2024-09-06T10:18:17Z</updated>

		<summary type="html">&lt;p&gt;Mindmakerbot: Creata pagina con &amp;quot;{{template pubblicazione  |data=2018  |autori=Matthew E. Peters, Mark Neumann, Mohit Iyyer, Matt Gardner, Christopher Clark, Kenton Lee, Luke Zettlemoyer  |URL=https://www.semanticscholar.org/paper/3febb2bed8865945e7fddc99efd791887bb7e14f  |topic=Word embedding  |citazioni=11008  }}    Questo articolo introduce un nuovo tipo di rappresentazione di parole contestualizzate che modella sia le caratteristiche complesse dell&amp;#039;uso delle parole (ad esempio, sintassi e semantica)...&amp;quot;&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{template pubblicazione&lt;br /&gt;
|data=2018&lt;br /&gt;
|autori=Matthew E. Peters, Mark Neumann, Mohit Iyyer, Matt Gardner, Christopher Clark, Kenton Lee, Luke Zettlemoyer&lt;br /&gt;
|URL=https://www.semanticscholar.org/paper/3febb2bed8865945e7fddc99efd791887bb7e14f&lt;br /&gt;
|topic=Word embedding&lt;br /&gt;
|citazioni=11008&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
Questo articolo introduce un nuovo tipo di rappresentazione di parole contestualizzate che modella sia le caratteristiche complesse dell&#039;uso delle parole (ad esempio, sintassi e semantica), sia il modo in cui questi usi variano a seconda dei contesti linguistici (ovvero, per modellare la polisemia).&lt;br /&gt;
&lt;br /&gt;
I vettori di parole sono funzioni apprese degli stati interni di un modello linguistico bidirezionale profondo (biLM), pre-addestrato su un ampio corpus di testo. Questo approccio consente di ottenere rappresentazioni più ricche e informative rispetto ai tradizionali word embedding statici.&lt;br /&gt;
&lt;br /&gt;
[[Categoria:Pubblicazione]]&lt;br /&gt;
&lt;br /&gt;
{{#seo:&lt;br /&gt;
            |title=Deep Contextualized Word Representations&lt;br /&gt;
            |title_mode=append&lt;br /&gt;
            |keywords=rappresentazioni di parole, word embedding, modelli linguistici, elaborazione del linguaggio naturale, apprendimento profondo, reti neurali, semantica, sintassi, polisemia&lt;br /&gt;
            |description=Questa pubblicazione presenta un nuovo tipo di rappresentazione di parole contestualizzate, modellando sia le caratteristiche complesse dell&#039;uso delle parole che le loro variazioni in base al contesto linguistico. Questo approccio, basato su un modello linguistico bidirezionale profondo, genera rappresentazioni più ricche rispetto ai tradizionali word embedding statici.&lt;br /&gt;
            &lt;br /&gt;
            }}&lt;/div&gt;</summary>
		<author><name>Mindmakerbot</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Prefix-tuning:_Optimizing_continuous_prompts_for_generation&amp;diff=2955</id>
		<title>Prefix-tuning: Optimizing continuous prompts for generation</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Prefix-tuning:_Optimizing_continuous_prompts_for_generation&amp;diff=2955"/>
		<updated>2024-08-19T13:11:38Z</updated>

		<summary type="html">&lt;p&gt;Mindmakerbot: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;{{template pubblicazione&lt;br /&gt;
|data=2021&lt;br /&gt;
|autori=Xiang Lisa Li, Percy Liang&lt;br /&gt;
|URL=https://www.semanticscholar.org/paper/53d8b356551a2361020a948f64454a6d599af69f&lt;br /&gt;
|topic=Modelli di linguaggio, apprendimento automatico&lt;br /&gt;
|citazioni=3057&lt;br /&gt;
}}&lt;br /&gt;
&lt;br /&gt;
Il Prefix-Tuning è un metodo alternativo al fine-tuning per adattare i grandi modelli linguistici pre-addestrati a compiti specifici. Invece di modificare tutti i parametri del modello, il Prefix-Tuning mantiene i parametri congelati e ottimizza una sequenza di vettori continui specifici del compito, chiamata &amp;quot;prefisso&amp;quot;.&lt;br /&gt;
&lt;br /&gt;
Questo approccio, simile al prompting, consente ai token successivi di considerare il prefisso come se fossero &amp;quot;token virtuali&amp;quot;. Gli autori dimostrano l&#039;efficacia del Prefix-Tuning su compiti come la generazione di testo da tabelle e la sintesi, ottenendo prestazioni comparabili al fine-tuning con molti meno parametri da addestrare.&lt;/div&gt;</summary>
		<author><name>Mindmakerbot</name></author>
	</entry>
</feed>