<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="it">
	<id>https://wiki.mindmaker.it/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=Sara+Maserati</id>
	<title>Wiki AI - Contributi dell&#039;utente [it]</title>
	<link rel="self" type="application/atom+xml" href="https://wiki.mindmaker.it/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=Sara+Maserati"/>
	<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php/Speciale:Contributi/Sara_Maserati"/>
	<updated>2026-05-13T19:42:51Z</updated>
	<subtitle>Contributi dell&amp;#039;utente</subtitle>
	<generator>MediaWiki 1.41.0</generator>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=WinoGrande&amp;diff=2214</id>
		<title>WinoGrande</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=WinoGrande&amp;diff=2214"/>
		<updated>2024-04-11T15:10:49Z</updated>

		<summary type="html">&lt;p&gt;Sara Maserati: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Nome: [[Nome::WinoGrande]]&lt;br /&gt;
&lt;br /&gt;
Anno di creazione: [[AnnoDiCreazione::2019]]&lt;br /&gt;
&lt;br /&gt;
URLHomePage: [https://paperswithcode.com/dataset/winogrande HomePage WinoGrande]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
__SHOWFACTBOX__&lt;br /&gt;
== Intro ==&lt;br /&gt;
Winogrande mira a valutare la capacità dei modelli di IA di applicare il senso comune per risolvere enigmi e compiti di comprensione del testo che richiedono più di una semplice analisi linguistica o statistica. Rispetto a set di dati simili come WSC, Winogrande offre una collezione di problemi più ampia e variata, riducendo la possibilità di sfruttare scorciatoie o bias nei dati per risolvere i problemi. Ogni domanda è formulata attorno a una frase o a un piccolo paragrafo che presenta una situazione ambigua o un enigma che richiede la comprensione del contesto e delle relazioni causali o logiche per essere risolto. &lt;br /&gt;
&lt;br /&gt;
Uno degli aspetti innovativi di Winogrande è l&#039;uso dell&#039;[[Adversarial Filtering (AF)]] nella generazione del dataset. Questo processo seleziona le domande più difficili eliminando quelle che i modelli di IA possono risolvere facilmente attraverso scorciatoie o bias presenti nei dati. L&#039;AF assicura che solo gli esempi più sfidanti, che richiedono un vero ragionamento di senso comune, siano inclusi nel benchmark.&lt;br /&gt;
&lt;br /&gt;
== Esempi ==&lt;br /&gt;
&lt;br /&gt;
* &#039;&#039;&#039;Esempio 1&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Frase:&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
     &amp;quot;John ha spostato il divano dal garage al giardino per creare spazio. Il _ è piccolo&amp;quot;.&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Opzione 1:&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
      &amp;quot;garage&amp;quot;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Opzione 2:&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
      &amp;quot;giardino&amp;quot;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Risposta:&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
      &amp;quot;1&amp;quot;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
* &#039;&#039;&#039;Esempio 2&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Frase:&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
     &amp;quot;Il dottore ha diagnosticato a Justin il disturbo bipolare e a Robert l&#039;ansia. _ aveva i nervi a pezzi&amp;quot;.&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Opzione 1:&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
     &amp;quot;Justin&amp;quot;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Opzione 2:&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
     &amp;quot;Robert&amp;quot;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Risposta:&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
     &amp;quot;2&amp;quot;&lt;br /&gt;
&lt;br /&gt;
==Strategie per risposte mirate nei modelli di linguaggio==&lt;br /&gt;
===Procedura di Valutazione su WinoGrande===&lt;br /&gt;
La valutazione su WinoGrande segue una metodologia specifica per assicurare che il modello affronti correttamente il problema di ragionamento presentato. Ecco i passaggi chiave:&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Prompting&#039;&#039;&#039;: Il modello riceve un prompt che consiste in una narrazione breve con una domanda di ragionamento di senso comune. Il prompt può includere anche delle scelte multiple come possibili risposte.&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Generazione della Risposta&#039;&#039;&#039;: Il modello deve selezionare la risposta corretta tra le opzioni fornite. Questo richiede una comprensione approfondita del testo e la capacità di applicare il ragionamento di senso comune.&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Parsing dell&#039;Output&#039;&#039;&#039;: Dato che l&#039;output del modello può variare in formato, gli sviluppatori devono implementare metodi per interpretare e valutare correttamente la risposta generata, assicurandosi che corrisponda alla selezione corretta tra le opzioni fornite.&lt;br /&gt;
&lt;br /&gt;
===Generazione di una Specifica Label===&lt;br /&gt;
Per indurre il modello a generare una specifica label senza reintrodurre il contesto in ogni risposta, gli sviluppatori possono utilizzare tecniche di addestramento specifiche. Questo può includere l&#039;addestramento del modello con esempi in cui la risposta è limitata a una scelta tra opzioni multiple, rinforzando la capacità del modello di focalizzarsi sulla selezione della risposta corretta basata sul ragionamento di senso comune.&lt;br /&gt;
&lt;br /&gt;
== Link ==&lt;br /&gt;
* [https://paperswithcode.com/dataset/winogrande WinoGrande]&lt;br /&gt;
* [https://huggingface.co/datasets/winogrande/viewer/winogrande_debiased/train?row=0 Dataset Winogrande]&lt;br /&gt;
&lt;br /&gt;
[[Category:benchmark]]&lt;/div&gt;</summary>
		<author><name>Sara Maserati</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=UCF101_-_Action_Recognition_Data_Set&amp;diff=2213</id>
		<title>UCF101 - Action Recognition Data Set</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=UCF101_-_Action_Recognition_Data_Set&amp;diff=2213"/>
		<updated>2024-04-11T15:09:16Z</updated>

		<summary type="html">&lt;p&gt;Sara Maserati: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Nome: [[Nome::Action Recognition Data Set]]&lt;br /&gt;
&lt;br /&gt;
Sigla: [[Sigla::UCF101]]&lt;br /&gt;
&lt;br /&gt;
Anno di creazione: [[AnnoDiCreazione::2013]]&lt;br /&gt;
&lt;br /&gt;
URLHomePage: [https://www.crcv.ucf.edu/data/UCF101.php HomePage UCF101]&lt;br /&gt;
&lt;br /&gt;
__SHOWFACTBOX__&lt;br /&gt;
&lt;br /&gt;
== Introduzione ==&lt;br /&gt;
UCF101 è un dataset di riconoscimento delle azioni, che comprende video di azioni realistiche raccolti da YouTube, suddivisi in 101 categorie di azioni. Questo dataset è l&#039;estensione del dataset UCF50, che includeva 50 categorie di azioni. Con i suoi 13320 video divisi in 101 categorie, UCF101 offre la più ampia varietà in termini di azioni, presentando notevoli variazioni in termini di movimento della telecamera, aspetto e posa degli oggetti, scala degli oggetti, punto di vista, sfondi disordinati, condizioni di illuminazione, ecc., rendendolo il dataset più sfidante fino ad oggi. A differenza di molti altri dataset di riconoscimento delle azioni, che sono spesso poco realistici e messi in scena da attori, UCF101 mira a stimolare ulteriori ricerche nel campo del riconoscimento delle azioni attraverso l&#039;apprendimento ed esplorazione di nuove categorie di azioni realistiche.&lt;br /&gt;
&lt;br /&gt;
I video sono raggruppati in 25 gruppi, ognuno dei quali può consistere di 4-7 video relativi a una determinata azione. I video dello stesso gruppo possono condividere alcune caratteristiche comuni, come sfondi o punti di vista simili.&lt;br /&gt;
&lt;br /&gt;
Le categorie di azioni possono essere suddivise in cinque tipi:&lt;br /&gt;
1) Interazione Uomo-Oggetto&lt;br /&gt;
2) Solo Movimento del Corpo&lt;br /&gt;
3) Interazione Uomo-Uomo&lt;br /&gt;
4) Suonare Strumenti Musicali&lt;br /&gt;
5) Sport.&lt;br /&gt;
&lt;br /&gt;
== Categorie di Azione ==&lt;br /&gt;
Le categorie di azione per il dataset UCF101 includono: applicare il trucco agli occhi, applicare il rossetto, tiro con l&#039;arco, gattonamento del bambino, trave di equilibrio, marcia della banda, lancio della palla da baseball, tiro a canestro, schiacciata a basket, sollevamento pesi, ciclismo, colpo da biliardo, asciugatura dei capelli, soffiare candeline, squat, bowling, pugilato al sacco, pugilato al speed bag, nuoto a rana, spazzolamento denti, sollevamento pesi, tuffo dalla scogliera, lancio del cricket, colpo di cricket, taglio in cucina, tuffo, suonare la batteria, scherma, penalty di hockey su prato, ginnastica a terra, cattura del frisbee, nuoto stile libero, swing nel golf, taglio dei capelli, lancio del martello, martellare, flessioni in verticale, camminata in verticale, massaggio alla testa, salto in alto, corsa di cavalli, equitazione, hula hoop, danza sul ghiaccio, lancio del giavellotto, giocoleria con le palle, salto della corda, jumping jack, kayak, maglia, salto in lungo, affondi, parata militare, miscelazione dell&#039;impasto, pulizia del pavimento, nunchaku, sbarre parallele, lancio della pizza, suonare la chitarra, suonare il pianoforte, suonare il tabla, suonare il violino, suonare il violoncello, suonare il daf, suonare il dhol, suonare il flauto, suonare il sitar, salto con l&#039;asta, cavallo a dondolo, trazioni, pugno, flessioni, rafting, arrampicata indoor, arrampicata su corda, canottaggio, giri di salsa, rasatura della barba, lancio del peso, skateboard, sci, moto d&#039;acqua, paracadutismo, giocoleria con il calcio, calcio di rigore, anelli di ginnastica, lotta sumo, surf, altalena, tiro a ping pong, tai chi, swing nel tennis, lancio del disco, salto sul trampolino, digitazione, sbarre asimmetriche, schiacciata a pallavolo, camminata con il cane, flessioni al muro, scrittura sulla lavagna, gioco con lo yo-yo.&lt;br /&gt;
&lt;br /&gt;
== Utilizzo e Citazioni ==&lt;br /&gt;
UCF101 mira a essere un benchmark principale per la competizione al First International Workshop on Action Recognition&lt;br /&gt;
&lt;br /&gt;
[[File:UCF101.jpg|200px]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=== Links ===&lt;br /&gt;
[https://www.crcv.ucf.edu/data/UCF101.php https://www.crcv.ucf.edu/data/UCF101.php]&lt;br /&gt;
&lt;br /&gt;
[[Category:benchmark]]&lt;/div&gt;</summary>
		<author><name>Sara Maserati</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Semantic_Textual_Similarity_(STS)&amp;diff=2210</id>
		<title>Semantic Textual Similarity (STS)</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Semantic_Textual_Similarity_(STS)&amp;diff=2210"/>
		<updated>2024-04-11T15:07:22Z</updated>

		<summary type="html">&lt;p&gt;Sara Maserati: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Nome: [[Nome::Semantic Textual Similarity]]&lt;br /&gt;
&lt;br /&gt;
Sigla: [[Sigla::STS]]&lt;br /&gt;
&lt;br /&gt;
Anno di creazione: [[AnnoDiCreazione::2012]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Misura di somiglianza tra frasi. [[BERT]], [[RoBERTa]] e [[GLoVe]] hanno miglioraro in maniera decisiva questo benchmark&lt;br /&gt;
&lt;br /&gt;
[[Category:Benchmark]]&lt;br /&gt;
&lt;br /&gt;
__SHOWFACTBOX__&lt;/div&gt;</summary>
		<author><name>Sara Maserati</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=QuAC&amp;diff=2207</id>
		<title>QuAC</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=QuAC&amp;diff=2207"/>
		<updated>2024-04-11T15:05:38Z</updated>

		<summary type="html">&lt;p&gt;Sara Maserati: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Nome: [[Nome::Question Answering in Context]]&lt;br /&gt;
&lt;br /&gt;
Sigla: [[Sigla::QuAC]]&lt;br /&gt;
&lt;br /&gt;
Anno di creazione: [[AnnoDiCreazione::2018]]&lt;br /&gt;
&lt;br /&gt;
URLHomePage: [https://quac.ai HomePage QuAC]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Question Answering in Context is a dataset for modeling, understanding, and participating in information seeking dialog. &lt;br /&gt;
&lt;br /&gt;
= Links =&lt;br /&gt;
[https://quac.ai Homepage]&lt;br /&gt;
[https://paperswithcode.com/sota/question-answering-on-quac Classifica e SOTA]&lt;br /&gt;
&lt;br /&gt;
[[Category:benchmark]]&lt;br /&gt;
&lt;br /&gt;
__SHOWFACTBOX__&lt;/div&gt;</summary>
		<author><name>Sara Maserati</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=SQuAD&amp;diff=2206</id>
		<title>SQuAD</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=SQuAD&amp;diff=2206"/>
		<updated>2024-04-11T15:05:01Z</updated>

		<summary type="html">&lt;p&gt;Sara Maserati: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Nome: [[Nome::Stanford Question Answering Dataset]]&lt;br /&gt;
&lt;br /&gt;
Sigla: [[Sigla::SQuAD]]&lt;br /&gt;
&lt;br /&gt;
Anno di creazione: [[AnnoDiCreazione::2018]]&lt;br /&gt;
&lt;br /&gt;
URLHomePage: [https://rajpurkar.github.io/SQuAD-explorer/ HomePage SQuAD]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Acronimo per Stanford Question Answering Dataset (SQuAD), è un dataset di domande basate su Wikipedia e crowdsourced&lt;br /&gt;
&lt;br /&gt;
=Link=&lt;br /&gt;
[https://rajpurkar.github.io/SQuAD-explorer/ https://rajpurkar.github.io/SQuAD-explorer/]&lt;br /&gt;
&lt;br /&gt;
[[Category:benchmark]]&lt;br /&gt;
[[Category:Linguaggio Naturale]]&lt;br /&gt;
&lt;br /&gt;
__SHOWFACTBOX__&lt;/div&gt;</summary>
		<author><name>Sara Maserati</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=QuAC&amp;diff=2204</id>
		<title>QuAC</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=QuAC&amp;diff=2204"/>
		<updated>2024-04-11T15:02:34Z</updated>

		<summary type="html">&lt;p&gt;Sara Maserati: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Nome: [[Nome::Question Answering in Context]]&lt;br /&gt;
&lt;br /&gt;
Sigla: [[Sigla::QuAC]]&lt;br /&gt;
&lt;br /&gt;
Anno di creazione: [[AnnoDiCreazione::2018]]&lt;br /&gt;
&lt;br /&gt;
URLHomePage: [http://esempioarchitettura.com HomePage QuAC]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Question Answering in Context is a dataset for modeling, understanding, and participating in information seeking dialog. &lt;br /&gt;
&lt;br /&gt;
= Links =&lt;br /&gt;
[https://quac.ai Homepage]&lt;br /&gt;
[https://paperswithcode.com/sota/question-answering-on-quac Classifica e SOTA]&lt;br /&gt;
&lt;br /&gt;
[[Category:benchmark]]&lt;br /&gt;
&lt;br /&gt;
__SHOWFACTBOX__&lt;/div&gt;</summary>
		<author><name>Sara Maserati</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=NaturalQuestions&amp;diff=2202</id>
		<title>NaturalQuestions</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=NaturalQuestions&amp;diff=2202"/>
		<updated>2024-04-11T15:00:19Z</updated>

		<summary type="html">&lt;p&gt;Sara Maserati: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Nome: [[Nome::NaturalQuestions]]&lt;br /&gt;
&lt;br /&gt;
Anno di creazione: [[AnnoDiCreazione::2019]]&lt;br /&gt;
&lt;br /&gt;
URLHomePage: [https://research.google/pubs/natural-questions-a-benchmark-for-question-answering-research/ HomePage NaturalQuestions]&lt;br /&gt;
&lt;br /&gt;
= Links =&lt;br /&gt;
&lt;br /&gt;
https://research.google/pubs/natural-questions-a-benchmark-for-question-answering-research/&lt;br /&gt;
&lt;br /&gt;
[[Category:benchmark]]&lt;br /&gt;
&lt;br /&gt;
__SHOWFACTBOX__&lt;/div&gt;</summary>
		<author><name>Sara Maserati</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=MS_COCO&amp;diff=2200</id>
		<title>MS COCO</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=MS_COCO&amp;diff=2200"/>
		<updated>2024-04-11T14:58:13Z</updated>

		<summary type="html">&lt;p&gt;Sara Maserati: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Nome: [[Nome::Microsoft Common Objects in Context]]&lt;br /&gt;
&lt;br /&gt;
Sigla: [[Sigla::MS COCO]]&lt;br /&gt;
&lt;br /&gt;
Anno di creazione: [[AnnoDiCreazione::2014]]&lt;br /&gt;
&lt;br /&gt;
URLHomePage: [https://cocodataset.org/#home HomePage MS COCO]&lt;br /&gt;
&lt;br /&gt;
== Esempi ==&lt;br /&gt;
&lt;br /&gt;
[[File:Coco-examples.jpg|500px]]&lt;br /&gt;
&lt;br /&gt;
== Links ==&lt;br /&gt;
[https://cocodataset.org/#home https://cocodataset.org/#home]&lt;br /&gt;
&lt;br /&gt;
[[Category:benchmark]]&lt;br /&gt;
&lt;br /&gt;
__SHOWFACTBOX__&lt;/div&gt;</summary>
		<author><name>Sara Maserati</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=MS_COCO&amp;diff=2199</id>
		<title>MS COCO</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=MS_COCO&amp;diff=2199"/>
		<updated>2024-04-11T14:57:59Z</updated>

		<summary type="html">&lt;p&gt;Sara Maserati: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Nome: [[Nome::Microsoft Common Objects in Context]]&lt;br /&gt;
&lt;br /&gt;
Sigla: [[Sigla::MS COCO]]&lt;br /&gt;
&lt;br /&gt;
Anno di creazione: [[AnnoDiCreazione::2014]]&lt;br /&gt;
&lt;br /&gt;
URLHomePage: [https://cocodataset.org/#home https://cocodataset.org/#home HomePage MS COCO]&lt;br /&gt;
&lt;br /&gt;
== Esempi ==&lt;br /&gt;
&lt;br /&gt;
[[File:Coco-examples.jpg|500px]]&lt;br /&gt;
&lt;br /&gt;
== Links ==&lt;br /&gt;
[https://cocodataset.org/#home https://cocodataset.org/#home]&lt;br /&gt;
&lt;br /&gt;
[[Category:benchmark]]&lt;br /&gt;
&lt;br /&gt;
__SHOWFACTBOX__&lt;/div&gt;</summary>
		<author><name>Sara Maserati</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=MS_COCO&amp;diff=2198</id>
		<title>MS COCO</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=MS_COCO&amp;diff=2198"/>
		<updated>2024-04-11T14:57:48Z</updated>

		<summary type="html">&lt;p&gt;Sara Maserati: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Nome: [[Nome::Microsoft Common Objects in Context]]&lt;br /&gt;
&lt;br /&gt;
Sigla: [[Sigla::MS COCO]]&lt;br /&gt;
&lt;br /&gt;
Anno di creazione: [[AnnoDiCreazione::2014]]&lt;br /&gt;
&lt;br /&gt;
URLHomePage: [https://cocodataset.org/#home https://cocodataset.org/#home HomePage MS COCO]]&lt;br /&gt;
&lt;br /&gt;
== Esempi ==&lt;br /&gt;
&lt;br /&gt;
[[File:Coco-examples.jpg|500px]]&lt;br /&gt;
&lt;br /&gt;
== Links ==&lt;br /&gt;
[https://cocodataset.org/#home https://cocodataset.org/#home]&lt;br /&gt;
&lt;br /&gt;
[[Category:benchmark]]&lt;br /&gt;
&lt;br /&gt;
__SHOWFACTBOX__&lt;/div&gt;</summary>
		<author><name>Sara Maserati</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Massive_Multitask_Language_Understanding&amp;diff=2196</id>
		<title>Massive Multitask Language Understanding</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Massive_Multitask_Language_Understanding&amp;diff=2196"/>
		<updated>2024-04-11T14:55:34Z</updated>

		<summary type="html">&lt;p&gt;Sara Maserati: Creata pagina con &amp;quot;Titolo: Titolo::Massive Multitask Language Understanding  Anno di pubblicazione: AnnoDiPubblicazione::2021  Autori: Autori::Dan Hendrycks et al.  URL: URL::https://arxiv.org/pdf/2009.03300.pdf  Category:pubblicazione  __SHOWFACTBOX__&amp;quot;&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Titolo: [[Titolo::Massive Multitask Language Understanding]]&lt;br /&gt;
&lt;br /&gt;
Anno di pubblicazione: [[AnnoDiPubblicazione::2021]]&lt;br /&gt;
&lt;br /&gt;
Autori: [[Autori::Dan Hendrycks et al.]]&lt;br /&gt;
&lt;br /&gt;
URL: [[URL::https://arxiv.org/pdf/2009.03300.pdf]]&lt;br /&gt;
&lt;br /&gt;
[[Category:pubblicazione]]&lt;br /&gt;
&lt;br /&gt;
__SHOWFACTBOX__&lt;/div&gt;</summary>
		<author><name>Sara Maserati</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=MMLU&amp;diff=2194</id>
		<title>MMLU</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=MMLU&amp;diff=2194"/>
		<updated>2024-04-11T14:53:53Z</updated>

		<summary type="html">&lt;p&gt;Sara Maserati: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Nome: [[Nome::Massive Multitask Language Understanding]]&lt;br /&gt;
&lt;br /&gt;
Sigla: [[Sigla::MMLU]]&lt;br /&gt;
&lt;br /&gt;
Anno di creazione: [[AnnoDiCreazione::2021]]&lt;br /&gt;
&lt;br /&gt;
URLHomePage:[https://paperswithcode.com/sota/multi-task-language-understanding-on-mmlu HomePage MMLU]&lt;br /&gt;
&lt;br /&gt;
Pubblicazione: [[Pubblicazione::Massive Multitask Language Understanding]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
__SHOWFACTBOX__&lt;br /&gt;
== Intro ==&lt;br /&gt;
&#039;&#039;&#039;Il benchmark MMLU (Massive Multitask Language Understanding)&#039;&#039;&#039; è stato ideato per valutare le capacità di comprensione dei modelli di linguaggio di grandi dimensioni. Esso misura la capacità di un modello di linguaggio di applicare la sua conoscenza acquisita durante l&#039;addestramento a una vasta gamma di compiti di comprensione del linguaggio, che vanno dalla risposta a domande di conoscenza generale fino alla soluzione di problemi specifici in vari domini. Questi compiti sono suddivisi in diverse categorie, tra cui scienze umane, scienze sociali, scienze fisiche, matematica, tecnologia, e molte altre.&lt;br /&gt;
&lt;br /&gt;
== Esempi ==&lt;br /&gt;
&#039;&#039;&#039;Esempio 1&#039;&#039;&#039;&lt;br /&gt;
* &#039;&#039;&#039;question&#039;&#039;&#039;&lt;br /&gt;
    Trova tutti gli zeri nel campo finito indicato del polinomio dato con coefficienti in tale campo. x^5 + 3x^3 + x^2 + 2x in Z_5&lt;br /&gt;
&lt;br /&gt;
* &#039;&#039;&#039;choises&#039;&#039;&#039;&lt;br /&gt;
    [ &amp;quot;0&amp;quot;, &amp;quot;1&amp;quot;, &amp;quot;0,1&amp;quot;, &amp;quot;0,4&amp;quot; ]&lt;br /&gt;
&lt;br /&gt;
* &#039;&#039;&#039;answers&#039;&#039;&#039;&lt;br /&gt;
    3 D (0,4)&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Esempio 2&#039;&#039;&#039;&lt;br /&gt;
* &#039;&#039;&#039;question&#039;&#039;&#039;&lt;br /&gt;
    &amp;quot;Trova il prodotto dei polinomi dati nell&#039;anello polinomiale specificato. f(x) = 4x - 5, g(x) = 2x^2 - 4x + 2 in Z_8[x].&amp;quot;&lt;br /&gt;
&lt;br /&gt;
* &#039;&#039;&#039;choises&#039;&#039;&#039;&lt;br /&gt;
    [ &amp;quot;2x^2 + 5&amp;quot;, &amp;quot;6x^2 + 4x + 6&amp;quot;, &amp;quot;0&amp;quot;, &amp;quot;x^2 + 1&amp;quot; ]&lt;br /&gt;
&lt;br /&gt;
* &#039;&#039;&#039;answers&#039;&#039;&#039;&lt;br /&gt;
    1 B (&amp;quot;2x^2+5&amp;quot;)&lt;br /&gt;
&lt;br /&gt;
== Strategie per risposte mirate nei Modelli di Linguaggio ==&lt;br /&gt;
&lt;br /&gt;
Per testare i modelli di linguaggio su benchmark come il &#039;&#039;&#039;MMLU (Massive Multitask Language Understanding)&#039;&#039;&#039;, i ricercatori adottano tecniche specifiche per assicurarsi che i modelli generino solo una label specifica come risposta, senza introdurre contenuto aggiuntivo non richiesto. La capacità di generare una risposta concisa e pertinente, limitandosi a una label specifica, è fondamentale per valutare accuratamente le performance del modello in compiti di comprensione del linguaggio su larga scala.&lt;br /&gt;
&lt;br /&gt;
=== Preparazione del Prompt ===&lt;br /&gt;
Il prompt o input fornito al modello è formulato con cura per includere tutte le informazioni necessarie affinché il modello comprenda il compito richiesto. Questo può includere:&lt;br /&gt;
&lt;br /&gt;
* &#039;&#039;&#039;La domanda&#039;&#039;&#039; o lo scenario da valutare.&lt;br /&gt;
* &#039;&#039;&#039;Le opzioni di risposta&#039;&#039;&#039;, elencate in modo che il modello possa scegliere tra queste.&lt;br /&gt;
* &#039;&#039;&#039;Un formato di risposta specifico&#039;&#039;&#039;, che guida il modello a generare la sua risposta in un formato desiderato, come la selezione di una label.&lt;br /&gt;
&lt;br /&gt;
=== Generazione della Risposta ===&lt;br /&gt;
Per indurre il modello a generare solo una label specifica senza introdurre contesto aggiuntivo:&lt;br /&gt;
&lt;br /&gt;
* &#039;&#039;&#039;Limitazione della lunghezza&#039;&#039;&#039;: i ricercatori possono limitare la lunghezza della risposta generata, forzando il modello a produrre output brevi.&lt;br /&gt;
* &#039;&#039;&#039;Istruzioni esplicite nel prompt&#039;&#039;&#039;: il prompt può includere istruzioni esplicite che chiedono al modello di selezionare solo una delle opzioni fornite, senza aggiungere ulteriori informazioni.&lt;br /&gt;
* &#039;&#039;&#039;Post-elaborazione&#039;&#039;&#039;: in alcuni casi, l&#039;output del modello può essere post-elaborato per estrarre solo la parte pertinente della risposta, come una specifica label.&lt;br /&gt;
&lt;br /&gt;
=== Parsing dell&#039;Output ===&lt;br /&gt;
Il parsing dell&#039;output generato dal modello, specialmente quando questo può essere verboso o complesso, richiede metodologie che possono includere:&lt;br /&gt;
&lt;br /&gt;
* &#039;&#039;&#039;Analisi sintattica&#039;&#039;&#039;: estrazione della parte rilevante dell&#039;output basandosi sulla sua struttura grammaticale.&lt;br /&gt;
* &#039;&#039;&#039;Regole di matching&#039;&#039;&#039;: applicazione di regole specifiche o espressioni regolari per identificare e selezionare la risposta corretta dall&#039;output.&lt;br /&gt;
* &#039;&#039;&#039;Machine Learning&#039;&#039;&#039;: utilizzo di modelli di machine learning secondari per classificare l&#039;output del modello principale e determinare la label corretta.&lt;br /&gt;
&lt;br /&gt;
== Link ==&lt;br /&gt;
* [https://paperswithcode.com/sota/multi-task-language-understanding-on-mmlu Benchmark]&lt;br /&gt;
* [https://arxiv.org/pdf/2009.03300.pdf Massive Multitask Language Understanding (paper)]&lt;br /&gt;
&lt;br /&gt;
[[Category:benchmark]]&lt;/div&gt;</summary>
		<author><name>Sara Maserati</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=MMLU&amp;diff=2193</id>
		<title>MMLU</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=MMLU&amp;diff=2193"/>
		<updated>2024-04-11T14:53:39Z</updated>

		<summary type="html">&lt;p&gt;Sara Maserati: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Nome: [[Nome::Massive Multitask Language Understanding]]&lt;br /&gt;
&lt;br /&gt;
Sigla: [[Sigla::MMLU]]&lt;br /&gt;
&lt;br /&gt;
Anno di creazione: [[AnnoDiCreazione::2021]]&lt;br /&gt;
&lt;br /&gt;
URLHomePage:[https://paperswithcode.com/sota/multi-task-language-understanding-on-mmlu Benchmark]&lt;br /&gt;
&lt;br /&gt;
Pubblicazione: [[Pubblicazione::Massive Multitask Language Understanding]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
__SHOWFACTBOX__&lt;br /&gt;
== Intro ==&lt;br /&gt;
&#039;&#039;&#039;Il benchmark MMLU (Massive Multitask Language Understanding)&#039;&#039;&#039; è stato ideato per valutare le capacità di comprensione dei modelli di linguaggio di grandi dimensioni. Esso misura la capacità di un modello di linguaggio di applicare la sua conoscenza acquisita durante l&#039;addestramento a una vasta gamma di compiti di comprensione del linguaggio, che vanno dalla risposta a domande di conoscenza generale fino alla soluzione di problemi specifici in vari domini. Questi compiti sono suddivisi in diverse categorie, tra cui scienze umane, scienze sociali, scienze fisiche, matematica, tecnologia, e molte altre.&lt;br /&gt;
&lt;br /&gt;
== Esempi ==&lt;br /&gt;
&#039;&#039;&#039;Esempio 1&#039;&#039;&#039;&lt;br /&gt;
* &#039;&#039;&#039;question&#039;&#039;&#039;&lt;br /&gt;
    Trova tutti gli zeri nel campo finito indicato del polinomio dato con coefficienti in tale campo. x^5 + 3x^3 + x^2 + 2x in Z_5&lt;br /&gt;
&lt;br /&gt;
* &#039;&#039;&#039;choises&#039;&#039;&#039;&lt;br /&gt;
    [ &amp;quot;0&amp;quot;, &amp;quot;1&amp;quot;, &amp;quot;0,1&amp;quot;, &amp;quot;0,4&amp;quot; ]&lt;br /&gt;
&lt;br /&gt;
* &#039;&#039;&#039;answers&#039;&#039;&#039;&lt;br /&gt;
    3 D (0,4)&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Esempio 2&#039;&#039;&#039;&lt;br /&gt;
* &#039;&#039;&#039;question&#039;&#039;&#039;&lt;br /&gt;
    &amp;quot;Trova il prodotto dei polinomi dati nell&#039;anello polinomiale specificato. f(x) = 4x - 5, g(x) = 2x^2 - 4x + 2 in Z_8[x].&amp;quot;&lt;br /&gt;
&lt;br /&gt;
* &#039;&#039;&#039;choises&#039;&#039;&#039;&lt;br /&gt;
    [ &amp;quot;2x^2 + 5&amp;quot;, &amp;quot;6x^2 + 4x + 6&amp;quot;, &amp;quot;0&amp;quot;, &amp;quot;x^2 + 1&amp;quot; ]&lt;br /&gt;
&lt;br /&gt;
* &#039;&#039;&#039;answers&#039;&#039;&#039;&lt;br /&gt;
    1 B (&amp;quot;2x^2+5&amp;quot;)&lt;br /&gt;
&lt;br /&gt;
== Strategie per risposte mirate nei Modelli di Linguaggio ==&lt;br /&gt;
&lt;br /&gt;
Per testare i modelli di linguaggio su benchmark come il &#039;&#039;&#039;MMLU (Massive Multitask Language Understanding)&#039;&#039;&#039;, i ricercatori adottano tecniche specifiche per assicurarsi che i modelli generino solo una label specifica come risposta, senza introdurre contenuto aggiuntivo non richiesto. La capacità di generare una risposta concisa e pertinente, limitandosi a una label specifica, è fondamentale per valutare accuratamente le performance del modello in compiti di comprensione del linguaggio su larga scala.&lt;br /&gt;
&lt;br /&gt;
=== Preparazione del Prompt ===&lt;br /&gt;
Il prompt o input fornito al modello è formulato con cura per includere tutte le informazioni necessarie affinché il modello comprenda il compito richiesto. Questo può includere:&lt;br /&gt;
&lt;br /&gt;
* &#039;&#039;&#039;La domanda&#039;&#039;&#039; o lo scenario da valutare.&lt;br /&gt;
* &#039;&#039;&#039;Le opzioni di risposta&#039;&#039;&#039;, elencate in modo che il modello possa scegliere tra queste.&lt;br /&gt;
* &#039;&#039;&#039;Un formato di risposta specifico&#039;&#039;&#039;, che guida il modello a generare la sua risposta in un formato desiderato, come la selezione di una label.&lt;br /&gt;
&lt;br /&gt;
=== Generazione della Risposta ===&lt;br /&gt;
Per indurre il modello a generare solo una label specifica senza introdurre contesto aggiuntivo:&lt;br /&gt;
&lt;br /&gt;
* &#039;&#039;&#039;Limitazione della lunghezza&#039;&#039;&#039;: i ricercatori possono limitare la lunghezza della risposta generata, forzando il modello a produrre output brevi.&lt;br /&gt;
* &#039;&#039;&#039;Istruzioni esplicite nel prompt&#039;&#039;&#039;: il prompt può includere istruzioni esplicite che chiedono al modello di selezionare solo una delle opzioni fornite, senza aggiungere ulteriori informazioni.&lt;br /&gt;
* &#039;&#039;&#039;Post-elaborazione&#039;&#039;&#039;: in alcuni casi, l&#039;output del modello può essere post-elaborato per estrarre solo la parte pertinente della risposta, come una specifica label.&lt;br /&gt;
&lt;br /&gt;
=== Parsing dell&#039;Output ===&lt;br /&gt;
Il parsing dell&#039;output generato dal modello, specialmente quando questo può essere verboso o complesso, richiede metodologie che possono includere:&lt;br /&gt;
&lt;br /&gt;
* &#039;&#039;&#039;Analisi sintattica&#039;&#039;&#039;: estrazione della parte rilevante dell&#039;output basandosi sulla sua struttura grammaticale.&lt;br /&gt;
* &#039;&#039;&#039;Regole di matching&#039;&#039;&#039;: applicazione di regole specifiche o espressioni regolari per identificare e selezionare la risposta corretta dall&#039;output.&lt;br /&gt;
* &#039;&#039;&#039;Machine Learning&#039;&#039;&#039;: utilizzo di modelli di machine learning secondari per classificare l&#039;output del modello principale e determinare la label corretta.&lt;br /&gt;
&lt;br /&gt;
== Link ==&lt;br /&gt;
* [https://paperswithcode.com/sota/multi-task-language-understanding-on-mmlu Benchmark]&lt;br /&gt;
* [https://arxiv.org/pdf/2009.03300.pdf Massive Multitask Language Understanding (paper)]&lt;br /&gt;
&lt;br /&gt;
[[Category:benchmark]]&lt;/div&gt;</summary>
		<author><name>Sara Maserati</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=MBPP&amp;diff=2191</id>
		<title>MBPP</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=MBPP&amp;diff=2191"/>
		<updated>2024-04-11T14:51:23Z</updated>

		<summary type="html">&lt;p&gt;Sara Maserati: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Nome: [[Nome::Mostly Basic Programming Problems]]&lt;br /&gt;
&lt;br /&gt;
Sigla: [[Sigla::MBPP]]&lt;br /&gt;
&lt;br /&gt;
Anno di creazione: [[AnnoDiCreazione::2021]]&lt;br /&gt;
&lt;br /&gt;
__SHOWFACTBOX__&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Category:benchmark]]&lt;/div&gt;</summary>
		<author><name>Sara Maserati</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=MATH&amp;diff=2190</id>
		<title>MATH</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=MATH&amp;diff=2190"/>
		<updated>2024-04-11T14:49:32Z</updated>

		<summary type="html">&lt;p&gt;Sara Maserati: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Nome: [[Nome::MATH]]&lt;br /&gt;
&lt;br /&gt;
Anno di creazione: [[AnnoDiCreazione::2021]]&lt;br /&gt;
&lt;br /&gt;
__SHOWFACTBOX__&lt;br /&gt;
&lt;br /&gt;
[[Category:benchmark]]&lt;/div&gt;</summary>
		<author><name>Sara Maserati</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=MATH&amp;diff=2189</id>
		<title>MATH</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=MATH&amp;diff=2189"/>
		<updated>2024-04-11T14:49:22Z</updated>

		<summary type="html">&lt;p&gt;Sara Maserati: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Nome: [[Nome: MATH]]&lt;br /&gt;
&lt;br /&gt;
Anno di creazione: [[AnnoDiCreazione::2021]]&lt;br /&gt;
&lt;br /&gt;
__SHOWFACTBOX__&lt;br /&gt;
&lt;br /&gt;
[[Category:benchmark]]&lt;/div&gt;</summary>
		<author><name>Sara Maserati</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=LongAlign:_A_Recipe_for_Long_Context_Alignment_of_Large_Language_Models&amp;diff=2188</id>
		<title>LongAlign: A Recipe for Long Context Alignment of Large Language Models</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=LongAlign:_A_Recipe_for_Long_Context_Alignment_of_Large_Language_Models&amp;diff=2188"/>
		<updated>2024-04-11T14:47:43Z</updated>

		<summary type="html">&lt;p&gt;Sara Maserati: Creata pagina con &amp;quot;Titolo: Titolo::LongAlign: A Recipe for Long Context Alignment of Large Language Models  Anno di pubblicazione: AnnoDiPubblicazione::2024  Autori: Autori::Yushi Bai et al.  URL: URL::https://arxiv.org/abs/2401.18058  Category:pubblicazione  __SHOWFACTBOX__&amp;quot;&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Titolo: [[Titolo::LongAlign: A Recipe for Long Context Alignment of Large Language Models]]&lt;br /&gt;
&lt;br /&gt;
Anno di pubblicazione: [[AnnoDiPubblicazione::2024]]&lt;br /&gt;
&lt;br /&gt;
Autori: [[Autori::Yushi Bai et al.]]&lt;br /&gt;
&lt;br /&gt;
URL: [[URL::https://arxiv.org/abs/2401.18058]]&lt;br /&gt;
&lt;br /&gt;
[[Category:pubblicazione]]&lt;br /&gt;
&lt;br /&gt;
__SHOWFACTBOX__&lt;/div&gt;</summary>
		<author><name>Sara Maserati</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=LongAlign&amp;diff=2187</id>
		<title>LongAlign</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=LongAlign&amp;diff=2187"/>
		<updated>2024-04-11T14:46:08Z</updated>

		<summary type="html">&lt;p&gt;Sara Maserati: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Nome: [[Nome::LongAlign]]&lt;br /&gt;
&lt;br /&gt;
Anno di creazione: [[AnnoDiCreazione::2024]]&lt;br /&gt;
&lt;br /&gt;
URLHomePage: [https://github.com/THUDM/ HomePage LongAlign]&lt;br /&gt;
&lt;br /&gt;
Pubblicazione: [[Pubblicazione::LongAlign: A Recipe for Long Context Alignment of Large Language Models]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;LongAlign&#039;&#039;&#039; è una tecnica avanzata progettata per aiutare i grandi modelli di intelligenza artificiale a &#039;&#039;&#039;comprendere e gestire&#039;&#039;&#039; &#039;&#039;&#039;testi molto lunghi&#039;&#039;&#039; in modo più efficace. Questo metodo introduce un modo nuovo per preparare i modelli a capire meglio le istruzioni complesse e a rispondere in maniera più accurata su argomenti estesi.&lt;br /&gt;
&lt;br /&gt;
Funzionamento di LongAlign:&lt;br /&gt;
&lt;br /&gt;
1. &#039;&#039;&#039;Costruzione di un dataset specifico&#039;&#039;&#039;: Prima di tutto, LongAlign crea un insieme di dati appositamente progettato per addestrare gli LLM su contesti lunghi. Questo set di dati comprende esempi che coprono una vasta gamma di argomenti e formati, assicurando che il modello possa imparare a gestire una varietà di materiali lunghi.&lt;br /&gt;
&lt;br /&gt;
2. &#039;&#039;&#039;Tecniche di addestramento efficienti&#039;&#039;&#039;: LongAlign utilizza strategie di addestramento innovative per accelerare il processo di apprendimento senza sacrificare la qualità. Due approcci chiave sono il &amp;quot;&#039;&#039;&#039;packing&#039;&#039;&#039;&amp;quot; e il &amp;quot;&#039;&#039;&#039;batching ordinato&#039;&#039;&#039;&amp;quot;. Il &#039;&#039;&#039;packing&#039;&#039;&#039; consiste nel combinare insieme diversi pezzi di testo fino a raggiungere una lunghezza massima, ottimizzando l&#039;uso delle risorse di calcolo. Il &#039;&#039;&#039;batching ordinato&#039;&#039;&#039; raggruppa i testi di lunghezza simile per minimizzare i tempi morti. Questi metodi aiutano il modello a imparare in modo più efficiente da grandi volumi di testo.&lt;br /&gt;
&lt;br /&gt;
3. &#039;&#039;&#039;Valutazione su compiti complessi&#039;&#039;&#039;: LongAlign testa i modelli su &#039;&#039;&#039;LongBench-Chat&#039;&#039;&#039;, un benchmark che presenta domande di lunghezza reale da &#039;&#039;&#039;10k a 100k caratteri&#039;&#039;&#039;. Questo tipo di valutazione assicura che il modello non solo possa gestire testi lunghi, ma che possa anche comprendere e rispondere a domande complesse basate su quei testi.&lt;br /&gt;
[[File:Screenshot_2024-03-20_152310.png|centro|miniatura|356x356px|Risultati dei test su LongBench-Chat, che contiene query del mondo reale di lunghezza da 10k a 100k.]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
L&#039;importanza di LongAlign risiede nella sua capacità di spingere i limiti di ciò che gli LLM possono fare. Tradizionalmente, gli LLM lottano con testi lunghi a causa delle limitazioni di memoria e attenzione, ma LongAlign offre un modo per superare tali limiti. Inoltre, il metodo garantisce che i modelli rimangano versatili, mantenendo alte prestazioni su una vasta gamma di compiti, sia che richiedano la gestione di poche righe di testo o l&#039;analisi di interi documenti.&lt;br /&gt;
&lt;br /&gt;
== Link ==&lt;br /&gt;
&lt;br /&gt;
=== Paper ===&lt;br /&gt;
[https://arxiv.org/abs/2401.18058 LongAlign: A Recipe for Long Context Alignment of Large Language Models]: paper originale&lt;br /&gt;
&lt;br /&gt;
=== Github ===&lt;br /&gt;
https://github.com/THUDM/LongAlign&lt;br /&gt;
&lt;br /&gt;
[[Category: Benchmark]]&lt;br /&gt;
&lt;br /&gt;
__SHOWFACTBOX__&lt;/div&gt;</summary>
		<author><name>Sara Maserati</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=LAION-5B:_An_open_large-scale_dataset_for_training_next_generation_image-text_models&amp;diff=2186</id>
		<title>LAION-5B: An open large-scale dataset for training next generation image-text models</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=LAION-5B:_An_open_large-scale_dataset_for_training_next_generation_image-text_models&amp;diff=2186"/>
		<updated>2024-04-11T14:29:03Z</updated>

		<summary type="html">&lt;p&gt;Sara Maserati: Creata pagina con &amp;quot;Titolo: Titolo::LAION-5B: An open large-scale dataset for training next generation image-text models  Anno di pubblicazione: AnnoDiPubblicazione::2022  Autori: Autori::Christoph Schuhmann et al.  URL: URL::https://arxiv.org/abs/2210.08402  Category:pubblicazione  __SHOWFACTBOX__&amp;quot;&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Titolo: [[Titolo::LAION-5B: An open large-scale dataset for training next generation image-text models]]&lt;br /&gt;
&lt;br /&gt;
Anno di pubblicazione: [[AnnoDiPubblicazione::2022]]&lt;br /&gt;
&lt;br /&gt;
Autori: [[Autori::Christoph Schuhmann et al.]]&lt;br /&gt;
&lt;br /&gt;
URL: [[URL::https://arxiv.org/abs/2210.08402]]&lt;br /&gt;
&lt;br /&gt;
[[Category:pubblicazione]]&lt;br /&gt;
&lt;br /&gt;
__SHOWFACTBOX__&lt;/div&gt;</summary>
		<author><name>Sara Maserati</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=LAION-5B&amp;diff=2185</id>
		<title>LAION-5B</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=LAION-5B&amp;diff=2185"/>
		<updated>2024-04-11T14:27:29Z</updated>

		<summary type="html">&lt;p&gt;Sara Maserati: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Nome: [[Nome::Large-scale Artificial Intelligence Open Network-5 Billion]]&lt;br /&gt;
&lt;br /&gt;
Sigla: [[Sigla::LAION-5B]]&lt;br /&gt;
&lt;br /&gt;
Anno di creazione: [[AnnoDiCreazione::2021]]&lt;br /&gt;
&lt;br /&gt;
URLHomePage: [https://laion.ai/blog/laion-5b/ HomePage LAION-5B]&lt;br /&gt;
&lt;br /&gt;
Pubblicazione: [[Pubblicazione::LAION-5B: An open large-scale dataset for training next generation image-text models]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Dataset di immagini e testo CLIP&lt;br /&gt;
&lt;br /&gt;
[[File:Laion.jpg|senza_cornice|500x500px]]&lt;br /&gt;
&lt;br /&gt;
== Links ==&lt;br /&gt;
* [https://laion.ai/blog/laion-5b/ Hopemape Progetto]&lt;br /&gt;
* [https://arxiv.org/abs/2210.08402 Paper Originale]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Category:benchmark]]&lt;br /&gt;
&lt;br /&gt;
__SHOWFACTBOX__&lt;/div&gt;</summary>
		<author><name>Sara Maserati</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=HumanEval&amp;diff=2184</id>
		<title>HumanEval</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=HumanEval&amp;diff=2184"/>
		<updated>2024-04-11T14:24:11Z</updated>

		<summary type="html">&lt;p&gt;Sara Maserati: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Nome: [[Nome::HumanEval]]&lt;br /&gt;
 &lt;br /&gt;
Anno ci creazione: [[AnnoDiCreazione::2021]]&lt;br /&gt;
&lt;br /&gt;
[[Category:benchmark]]&lt;br /&gt;
&lt;br /&gt;
__SHOWFACTBOX__&lt;/div&gt;</summary>
		<author><name>Sara Maserati</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=HellaSwag:_Can_a_Machine_Really_Finish_Your_Sentence%3F&amp;diff=2181</id>
		<title>HellaSwag: Can a Machine Really Finish Your Sentence?</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=HellaSwag:_Can_a_Machine_Really_Finish_Your_Sentence%3F&amp;diff=2181"/>
		<updated>2024-04-11T13:56:14Z</updated>

		<summary type="html">&lt;p&gt;Sara Maserati: Creata pagina con &amp;quot;Titolo: Titolo::HellaSwag: Can a Machine Really Finish Your Sentence?  Anno di pubblicazione: AnnoDiPubblicazione::2019  Autori: Autori::Rowan Zellers et al.  URL: URL::https://arxiv.org/pdf/1905.07830.pdf  Category:pubblicazione  __SHOWFACTBOX__&amp;quot;&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Titolo: [[Titolo::HellaSwag: Can a Machine Really Finish Your Sentence?]]&lt;br /&gt;
&lt;br /&gt;
Anno di pubblicazione: [[AnnoDiPubblicazione::2019]]&lt;br /&gt;
&lt;br /&gt;
Autori: [[Autori::Rowan Zellers et al.]]&lt;br /&gt;
&lt;br /&gt;
URL: [[URL::https://arxiv.org/pdf/1905.07830.pdf]]&lt;br /&gt;
&lt;br /&gt;
[[Category:pubblicazione]]&lt;br /&gt;
&lt;br /&gt;
__SHOWFACTBOX__&lt;/div&gt;</summary>
		<author><name>Sara Maserati</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=HellaSwag&amp;diff=2179</id>
		<title>HellaSwag</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=HellaSwag&amp;diff=2179"/>
		<updated>2024-04-11T13:54:14Z</updated>

		<summary type="html">&lt;p&gt;Sara Maserati: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Nome: [[Nome::Harder Endings, Longer contexts, and Low-shot Activities for Situations With Adversarial Generations]]&lt;br /&gt;
&lt;br /&gt;
Sigla: [[Sigla::HellaSwag]]&lt;br /&gt;
&lt;br /&gt;
Anno di creazione: [[AnnoDiCreazione::2019]]&lt;br /&gt;
&lt;br /&gt;
URLHomePage:[https://huggingface.co/datasets/Rowan/hellaswag/viewer/default/train?row=1 Dataset HellaSwag]&lt;br /&gt;
&lt;br /&gt;
Pubblicazione: [[Pubblicazione::HellaSwag: Can a Machine Really Finish Your Sentence?]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Intro ==&lt;br /&gt;
Acronimo per &#039;&#039;&#039;&amp;quot;Harder Endings, Longer contexts, and Low-shot Activities for Situations With Adversarial Generations&amp;quot;&#039;&#039;&#039;.&lt;br /&gt;
&lt;br /&gt;
È stato progettato per testare la capacità di un modello di prevedere la conclusione logica di una narrazione, spesso in contesti che richiedono un&#039;elevata capacità di ragionamento e comprensione del contesto.&lt;br /&gt;
Il benchmark HellaSwag include due tipi principali di contesti: descrizioni di video e situazioni di tipo Wikipedia. Per ogni contesto, vengono fornite diverse scelte di continuazione, e il compito del modello è selezionare quella più logica e coerente con il contesto fornito. Utilizza il concetto di [[Adversarial Endings]].&lt;br /&gt;
&lt;br /&gt;
== Esempi ==&lt;br /&gt;
&lt;br /&gt;
* &#039;&#039;&#039;activity_label&#039;&#039;&#039; (Questo campo contiene l&#039;etichetta dell&#039;attività che viene svolta):&lt;br /&gt;
&lt;br /&gt;
     &amp;quot;Fare i biscotti&amp;quot;&lt;br /&gt;
&lt;br /&gt;
* &#039;&#039;&#039;ctx_a&#039;&#039;&#039; (Il contesto A fornisce il primo pezzo di informazioni o setup per lo scenario): &lt;br /&gt;
&lt;br /&gt;
     &amp;quot;Una chef donna in divisa bianca mostra una pila di teglie da forno in una grande cucina presentandole.&amp;quot;&lt;br /&gt;
&lt;br /&gt;
* &#039;&#039;&#039;ctx_b&#039;&#039;&#039; (Questa frase serve come punto di partenza per la generazione di testo o per la selezione di un finale appropriato): &lt;br /&gt;
&lt;br /&gt;
     &amp;quot;Le teglie&amp;quot;&lt;br /&gt;
&lt;br /&gt;
* &#039;&#039;&#039;endings&#039;&#039;&#039; (Questo campo contiene una lista di possibili finali per la storia presentata nei contesti A e B. Il modello deve scegliere quale tra questi finali sia il più logico e appropriato):&lt;br /&gt;
&lt;br /&gt;
     0. contengono tuorli d&#039;uovo e bicarbonato di sodio.&lt;br /&gt;
     1. poi vengono cosparse di zucchero di canna.&lt;br /&gt;
     2. vengono poste in un colino sul bancone.&lt;br /&gt;
     3. vengono riempite con dolci e caricate nel forno.&lt;br /&gt;
&lt;br /&gt;
* &#039;&#039;&#039;label&#039;&#039;&#039; (Indica la risposta corretta o l&#039;etichetta che il modello dovrebbe prevedere): &lt;br /&gt;
&lt;br /&gt;
     In questo caso, il numero &#039;&#039;&#039;&amp;quot;3&amp;quot;&#039;&#039;&#039; si riferisce all&#039;indice del finale corretto nell&#039;array &amp;quot;endings&amp;quot;.&lt;br /&gt;
&lt;br /&gt;
==Strategie per risposte mirate nei modelli di linguaggio==&lt;br /&gt;
===Procedure di valutazione su HellaSwag===&lt;br /&gt;
La valutazione su HellaSwag solitamente segue questi passaggi:&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Prompting&#039;&#039;&#039;: Il modello riceve un prompt che include il contesto e le opzioni di completamento. Il prompt è formulato in modo da indicare chiaramente al modello che il suo compito è selezionare il completamento più plausibile tra le opzioni fornite.&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Generazione della Risposta&#039;&#039;&#039;: Diversamente da altri compiti in cui il modello genera liberamente del testo, in HellaSwag il modello deve selezionare tra le opzioni predefinite. Questo può essere realizzato in diversi modi, come ad esempio chiedendo al modello di generare un&#039;etichetta o un indice che corrisponde alla sua scelta.&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Parsing dell&#039;Output&#039;&#039;&#039;: Dato che l&#039;output del modello potrebbe essere verboso o presentare informazioni non direttamente legate alla selezione della risposta, gli sviluppatori devono implementare un metodo per estrarre la risposta pertinente dall&#039;output generale. Questo spesso comporta la mappatura dell&#039;output del modello alle opzioni di scelta fornite nel prompt.&lt;br /&gt;
&lt;br /&gt;
===Generazione di una Specifica Label senza Contesto Esplicito===&lt;br /&gt;
Per far generare al modello solo una label specifica senza introdurre il contesto in ogni risposta, si possono adottare diverse tecniche, come l&#039;addestramento o il [[fine-tuning]] del modello con un formato di risposta specifico. Questo può includere l&#039;addestramento del modello per riconoscere che, in contesti come HellaSwag, è richiesto di limitare la sua risposta a una delle etichette predefinite, piuttosto che generare una risposta estesa o un testo libero.&lt;br /&gt;
&lt;br /&gt;
== Link ==&lt;br /&gt;
*[https://arxiv.org/abs/1905.07830 HellaSwag: Can a Machine Really Finish Your Sentence?]&lt;br /&gt;
*[https://huggingface.co/datasets/Rowan/hellaswag/viewer/default/train?row=1 Dataset HellaSwag]&lt;br /&gt;
&lt;br /&gt;
[[Category:benchmark]]&lt;br /&gt;
&lt;br /&gt;
__SHOWFACTBOX__&lt;/div&gt;</summary>
		<author><name>Sara Maserati</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=HMDB:_a_large_human_motion_database&amp;diff=2177</id>
		<title>HMDB: a large human motion database</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=HMDB:_a_large_human_motion_database&amp;diff=2177"/>
		<updated>2024-04-11T13:51:40Z</updated>

		<summary type="html">&lt;p&gt;Sara Maserati: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Nome: [[Nome::A large human motion database]]&lt;br /&gt;
&lt;br /&gt;
Sigla: [[Sigla::HMDB]]&lt;br /&gt;
&lt;br /&gt;
Anno di creazione: [[AnnoDiCreazione::2011]]&lt;br /&gt;
&lt;br /&gt;
URLHomePage: [https://serre-lab.clps.brown.edu/resource/hmdb-a-large-human-motion-database/#overview HomePage HMDB]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Introduzione ==&lt;br /&gt;
L&#039;HMDB, raccolto da diverse fonti principalmente cinematografiche e, in minore misura, da archivi pubblici come l&#039;archivio Prelinger, YouTube e video di Google, comprende 6849 clip suddivise in 51 categorie di azioni, ognuna con almeno 101 clip. Le categorie di azioni si dividono in cinque tipi:&lt;br /&gt;
&lt;br /&gt;
- Azioni facciali generali: sorridere, ridere, masticare, parlare.&lt;br /&gt;
- Azioni facciali con manipolazione di oggetti: fumare, mangiare, bere.&lt;br /&gt;
- Movimenti corporei generali: fare la ruota, applaudire, arrampicarsi, salire le scale, tuffarsi, cadere a terra, fare la capriola all&#039;indietro, stare in verticale sulle mani, saltare, fare trazioni, flessioni, correre, sedersi, alzarsi, fare la capriola, girarsi, camminare, salutare.&lt;br /&gt;
- Movimenti corporei con interazione di oggetti: spazzolarsi i capelli, acchiappare, estrarre una spada, palleggiare, giocare a golf, colpire qualcosa, calciare una palla, raccogliere, versare, spingere qualcosa, andare in bicicletta, cavalcare, tirare a canestro, tirare con l&#039;arco, sparare con una pistola, oscillare con una mazza da baseball, esercitarsi con la spada, lanciare.&lt;br /&gt;
- Movimenti corporei per interazione umana: scherma, abbracciare, calciare qualcuno, baciare, pugilare, stringere mani, combattere con la spada.&lt;br /&gt;
&lt;br /&gt;
== Dataset, meta etichette, statistiche e stabilizzazione ==&lt;br /&gt;
Oltre all&#039;etichetta della categoria di azione, ogni clip è annotata con un&#039;etichetta di azione e una meta-etichetta che descrive la proprietà della clip. Poiché le sequenze video HMDB51 sono estratte da film commerciali e da YouTube, rappresentano una vasta varietà di condizioni di luce, situazioni e contesti in cui l&#039;azione può apparire, catturati con diversi tipi di telecamere e tecniche di registrazione. Il punto di vista è un altro criterio di suddivisione supportato dall&#039;HMDB. Per una copertura completa, sono distinguibili le prospettive frontale, laterale (destra e sinistra) e posteriore dei movimenti. Inoltre, esistono due categorie distinte, ovvero &amp;quot;nessun movimento&amp;quot; e &amp;quot;movimento della telecamera&amp;quot;. La qualità dei video è valutata su tre livelli, e solo i campioni video classificati come &amp;quot;buoni&amp;quot; soddisfano il requisito di identificare le singole dita durante il movimento. I campioni che non soddisfano questo requisito sono valutati come &amp;quot;medi&amp;quot; o &amp;quot;cattivi&amp;quot; se parti del corpo o arti scompaiono durante l&#039;esecuzione dell&#039;azione. Il dataset include anche una sfida maggiore associata all&#039;uso di clip video estratte da video reali: la presenza potenziale di significativi movimenti di telecamera/sfondo, che si presume interferiscano con il calcolo del movimento locale e debbano essere corretti. Per rimuovere il movimento della telecamera, sono state utilizzate tecniche standard di stitching delle immagini per allineare i fotogrammi di una clip.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Nei seguenti file vengono illustrate le 51 azioni&lt;br /&gt;
&lt;br /&gt;
[[File:HMDB_snapshot1.png|200px]]&lt;br /&gt;
[[File:HMDB_snapshot2.png|200px]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=== Links ===&lt;br /&gt;
[https://serre-lab.clps.brown.edu/resource/hmdb-a-large-human-motion-database/#overview https://serre-lab.clps.brown.edu/resource/hmdb-a-large-human-motion-database/#overview]&lt;br /&gt;
&lt;br /&gt;
[[Category:benchmark]]&lt;br /&gt;
&lt;br /&gt;
__SHOWFACTBOX__&lt;/div&gt;</summary>
		<author><name>Sara Maserati</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=HMDB:_a_large_human_motion_database&amp;diff=2176</id>
		<title>HMDB: a large human motion database</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=HMDB:_a_large_human_motion_database&amp;diff=2176"/>
		<updated>2024-04-11T13:51:17Z</updated>

		<summary type="html">&lt;p&gt;Sara Maserati: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Nome: [[Nome::A large human motion database]]&lt;br /&gt;
&lt;br /&gt;
Sigla: [[Sigla::HMDB]]&lt;br /&gt;
&lt;br /&gt;
Anno di creazione: [[AnnoDiCreazione::2011]]&lt;br /&gt;
&lt;br /&gt;
URLHomePage: [https://serre-lab.clps.brown.edu/resource/hmdb-a-large-human-motion-database/#overview https://serre-lab.clps.brown.edu/resource/hmdb-a-large-human-motion-database/#overview HomePage HMDB]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Introduzione ==&lt;br /&gt;
L&#039;HMDB, raccolto da diverse fonti principalmente cinematografiche e, in minore misura, da archivi pubblici come l&#039;archivio Prelinger, YouTube e video di Google, comprende 6849 clip suddivise in 51 categorie di azioni, ognuna con almeno 101 clip. Le categorie di azioni si dividono in cinque tipi:&lt;br /&gt;
&lt;br /&gt;
- Azioni facciali generali: sorridere, ridere, masticare, parlare.&lt;br /&gt;
- Azioni facciali con manipolazione di oggetti: fumare, mangiare, bere.&lt;br /&gt;
- Movimenti corporei generali: fare la ruota, applaudire, arrampicarsi, salire le scale, tuffarsi, cadere a terra, fare la capriola all&#039;indietro, stare in verticale sulle mani, saltare, fare trazioni, flessioni, correre, sedersi, alzarsi, fare la capriola, girarsi, camminare, salutare.&lt;br /&gt;
- Movimenti corporei con interazione di oggetti: spazzolarsi i capelli, acchiappare, estrarre una spada, palleggiare, giocare a golf, colpire qualcosa, calciare una palla, raccogliere, versare, spingere qualcosa, andare in bicicletta, cavalcare, tirare a canestro, tirare con l&#039;arco, sparare con una pistola, oscillare con una mazza da baseball, esercitarsi con la spada, lanciare.&lt;br /&gt;
- Movimenti corporei per interazione umana: scherma, abbracciare, calciare qualcuno, baciare, pugilare, stringere mani, combattere con la spada.&lt;br /&gt;
&lt;br /&gt;
== Dataset, meta etichette, statistiche e stabilizzazione ==&lt;br /&gt;
Oltre all&#039;etichetta della categoria di azione, ogni clip è annotata con un&#039;etichetta di azione e una meta-etichetta che descrive la proprietà della clip. Poiché le sequenze video HMDB51 sono estratte da film commerciali e da YouTube, rappresentano una vasta varietà di condizioni di luce, situazioni e contesti in cui l&#039;azione può apparire, catturati con diversi tipi di telecamere e tecniche di registrazione. Il punto di vista è un altro criterio di suddivisione supportato dall&#039;HMDB. Per una copertura completa, sono distinguibili le prospettive frontale, laterale (destra e sinistra) e posteriore dei movimenti. Inoltre, esistono due categorie distinte, ovvero &amp;quot;nessun movimento&amp;quot; e &amp;quot;movimento della telecamera&amp;quot;. La qualità dei video è valutata su tre livelli, e solo i campioni video classificati come &amp;quot;buoni&amp;quot; soddisfano il requisito di identificare le singole dita durante il movimento. I campioni che non soddisfano questo requisito sono valutati come &amp;quot;medi&amp;quot; o &amp;quot;cattivi&amp;quot; se parti del corpo o arti scompaiono durante l&#039;esecuzione dell&#039;azione. Il dataset include anche una sfida maggiore associata all&#039;uso di clip video estratte da video reali: la presenza potenziale di significativi movimenti di telecamera/sfondo, che si presume interferiscano con il calcolo del movimento locale e debbano essere corretti. Per rimuovere il movimento della telecamera, sono state utilizzate tecniche standard di stitching delle immagini per allineare i fotogrammi di una clip.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Nei seguenti file vengono illustrate le 51 azioni&lt;br /&gt;
&lt;br /&gt;
[[File:HMDB_snapshot1.png|200px]]&lt;br /&gt;
[[File:HMDB_snapshot2.png|200px]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=== Links ===&lt;br /&gt;
[https://serre-lab.clps.brown.edu/resource/hmdb-a-large-human-motion-database/#overview https://serre-lab.clps.brown.edu/resource/hmdb-a-large-human-motion-database/#overview]&lt;br /&gt;
&lt;br /&gt;
[[Category:benchmark]]&lt;br /&gt;
&lt;br /&gt;
__SHOWFACTBOX__&lt;/div&gt;</summary>
		<author><name>Sara Maserati</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=HMDB:_a_large_human_motion_database&amp;diff=2175</id>
		<title>HMDB: a large human motion database</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=HMDB:_a_large_human_motion_database&amp;diff=2175"/>
		<updated>2024-04-11T13:50:59Z</updated>

		<summary type="html">&lt;p&gt;Sara Maserati: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Nome: [[Nome::A large human motion database]]&lt;br /&gt;
&lt;br /&gt;
Sigla: [[Sigla::HMDB]]&lt;br /&gt;
&lt;br /&gt;
Anno di creazione: [[AnnoDiCreazione::2011]]&lt;br /&gt;
&lt;br /&gt;
URLHomePage: [https://serre-lab.clps.brown.edu/resource/hmdb-a-large-human-motion-database/#overview https://serre-lab.clps.brown.edu/resource/hmdb-a-large-human-motion-database/#overview]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Introduzione ==&lt;br /&gt;
L&#039;HMDB, raccolto da diverse fonti principalmente cinematografiche e, in minore misura, da archivi pubblici come l&#039;archivio Prelinger, YouTube e video di Google, comprende 6849 clip suddivise in 51 categorie di azioni, ognuna con almeno 101 clip. Le categorie di azioni si dividono in cinque tipi:&lt;br /&gt;
&lt;br /&gt;
- Azioni facciali generali: sorridere, ridere, masticare, parlare.&lt;br /&gt;
- Azioni facciali con manipolazione di oggetti: fumare, mangiare, bere.&lt;br /&gt;
- Movimenti corporei generali: fare la ruota, applaudire, arrampicarsi, salire le scale, tuffarsi, cadere a terra, fare la capriola all&#039;indietro, stare in verticale sulle mani, saltare, fare trazioni, flessioni, correre, sedersi, alzarsi, fare la capriola, girarsi, camminare, salutare.&lt;br /&gt;
- Movimenti corporei con interazione di oggetti: spazzolarsi i capelli, acchiappare, estrarre una spada, palleggiare, giocare a golf, colpire qualcosa, calciare una palla, raccogliere, versare, spingere qualcosa, andare in bicicletta, cavalcare, tirare a canestro, tirare con l&#039;arco, sparare con una pistola, oscillare con una mazza da baseball, esercitarsi con la spada, lanciare.&lt;br /&gt;
- Movimenti corporei per interazione umana: scherma, abbracciare, calciare qualcuno, baciare, pugilare, stringere mani, combattere con la spada.&lt;br /&gt;
&lt;br /&gt;
== Dataset, meta etichette, statistiche e stabilizzazione ==&lt;br /&gt;
Oltre all&#039;etichetta della categoria di azione, ogni clip è annotata con un&#039;etichetta di azione e una meta-etichetta che descrive la proprietà della clip. Poiché le sequenze video HMDB51 sono estratte da film commerciali e da YouTube, rappresentano una vasta varietà di condizioni di luce, situazioni e contesti in cui l&#039;azione può apparire, catturati con diversi tipi di telecamere e tecniche di registrazione. Il punto di vista è un altro criterio di suddivisione supportato dall&#039;HMDB. Per una copertura completa, sono distinguibili le prospettive frontale, laterale (destra e sinistra) e posteriore dei movimenti. Inoltre, esistono due categorie distinte, ovvero &amp;quot;nessun movimento&amp;quot; e &amp;quot;movimento della telecamera&amp;quot;. La qualità dei video è valutata su tre livelli, e solo i campioni video classificati come &amp;quot;buoni&amp;quot; soddisfano il requisito di identificare le singole dita durante il movimento. I campioni che non soddisfano questo requisito sono valutati come &amp;quot;medi&amp;quot; o &amp;quot;cattivi&amp;quot; se parti del corpo o arti scompaiono durante l&#039;esecuzione dell&#039;azione. Il dataset include anche una sfida maggiore associata all&#039;uso di clip video estratte da video reali: la presenza potenziale di significativi movimenti di telecamera/sfondo, che si presume interferiscano con il calcolo del movimento locale e debbano essere corretti. Per rimuovere il movimento della telecamera, sono state utilizzate tecniche standard di stitching delle immagini per allineare i fotogrammi di una clip.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Nei seguenti file vengono illustrate le 51 azioni&lt;br /&gt;
&lt;br /&gt;
[[File:HMDB_snapshot1.png|200px]]&lt;br /&gt;
[[File:HMDB_snapshot2.png|200px]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=== Links ===&lt;br /&gt;
[https://serre-lab.clps.brown.edu/resource/hmdb-a-large-human-motion-database/#overview https://serre-lab.clps.brown.edu/resource/hmdb-a-large-human-motion-database/#overview]&lt;br /&gt;
&lt;br /&gt;
[[Category:benchmark]]&lt;br /&gt;
&lt;br /&gt;
__SHOWFACTBOX__&lt;/div&gt;</summary>
		<author><name>Sara Maserati</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=General_Language_Understanding_Evaluation_(GLUE)&amp;diff=2174</id>
		<title>General Language Understanding Evaluation (GLUE)</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=General_Language_Understanding_Evaluation_(GLUE)&amp;diff=2174"/>
		<updated>2024-04-11T13:48:37Z</updated>

		<summary type="html">&lt;p&gt;Sara Maserati: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Nome: [[Nome::General Language Understanding Evaluation]]&lt;br /&gt;
&lt;br /&gt;
Sigla: [[Sigla::GLUE]]&lt;br /&gt;
&lt;br /&gt;
Anno di creazione: [[AnnoDiCreazione::2018]]&lt;br /&gt;
&lt;br /&gt;
URLHomePage: [https://gluebenchmark.com Homepage di GLUE]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Famoso benchmark che misura la qualità dei modelli di linguaggio in vari compiti di [[Natural Language Understanding]]&lt;br /&gt;
&lt;br /&gt;
=== Dataset Contenuti ===&lt;br /&gt;
&lt;br /&gt;
==== Corpus of Linguistic Acceptability (COLA) ====&lt;br /&gt;
Misura l&#039;accettabilità grammaticale delle frasi&lt;br /&gt;
 Input: &amp;quot;They caused him to become angry by making him.&amp;quot;&lt;br /&gt;
 Target: 0&lt;br /&gt;
&lt;br /&gt;
==== Stanford Sentiment Treebank (SST-2) ====&lt;br /&gt;
Misura il sentiment&lt;br /&gt;
 Input: &amp;quot;that loves its characters and communicates something rather beautiful about human nature &amp;quot;&lt;br /&gt;
 Target: 1&lt;br /&gt;
&lt;br /&gt;
==== Quora Question Pairs (QQP) ====&lt;br /&gt;
Misura la somiglianza di due domande&lt;br /&gt;
 Inputs:&lt;br /&gt;
 1. &amp;quot;What is the best self help book you have read? Why? &lt;br /&gt;
     How did it change your life?&amp;quot;&lt;br /&gt;
 2. &amp;quot;What are the top self help books I should read?&amp;quot;&lt;br /&gt;
 Target: 1&lt;br /&gt;
&lt;br /&gt;
==== Semantic Textual Similarity Benchmark (STS-B) ====&lt;br /&gt;
Misura la somiglianza semantica, da 1 a 5. La metrica utilizzata per la alutazione è la &amp;lt;u&amp;gt;correlazione&amp;lt;/u&amp;gt;.&lt;br /&gt;
 Example 1:&lt;br /&gt;
 Input:&lt;br /&gt;
 1. &amp;quot;A plane is taking off.&amp;quot;&lt;br /&gt;
 2. &amp;quot;An air plane is taking off.&amp;quot;&lt;br /&gt;
 Target: 5&lt;br /&gt;
&lt;br /&gt;
 Example 2:&lt;br /&gt;
 Input:&lt;br /&gt;
 1. &amp;quot;A man is slicing a bun.&amp;quot;&lt;br /&gt;
 2. &amp;quot;A man is slicing an onion.&amp;quot;&lt;br /&gt;
 Target: 2.4&lt;br /&gt;
&lt;br /&gt;
==== Microsoft Research Paraphrase Corpus (MRPC) ====&lt;br /&gt;
Giudica se una frase è la parafrasi dell&#039;altra&lt;br /&gt;
 Input:&lt;br /&gt;
 1. &amp;quot;Revenue in the first quarter of the year dropped 15 percent from the same period a year earlier .&amp;quot;&lt;br /&gt;
 2. &amp;quot;With the scandal hanging over Stewart &#039;s company , revenue the first quarter of the year dropped 15 percent from the same period a year earlier .&amp;quot;&lt;br /&gt;
 Target: 1&lt;br /&gt;
&lt;br /&gt;
==== Multi-Genre Natural Language Inference (MNLI) ====&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
... to be continued -&amp;gt; https://medium.com/@priyankads/evaluate-language-understanding-of-ai-models-66dd56269a45&lt;br /&gt;
&lt;br /&gt;
=== Links ===&lt;br /&gt;
&lt;br /&gt;
[https://gluebenchmark.com Homepage di GLUE]&lt;br /&gt;
&lt;br /&gt;
[[Category:Benchmark]]&lt;br /&gt;
&lt;br /&gt;
__SHOWFACTBOX__&lt;/div&gt;</summary>
		<author><name>Sara Maserati</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=GSM8K&amp;diff=2173</id>
		<title>GSM8K</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=GSM8K&amp;diff=2173"/>
		<updated>2024-04-11T13:46:13Z</updated>

		<summary type="html">&lt;p&gt;Sara Maserati: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Nome: [[Nome::Grade School Math 8K]]&lt;br /&gt;
&lt;br /&gt;
Sigla: [[Sigla::GSM8K]]&lt;br /&gt;
&lt;br /&gt;
Anno di creazione: [[AnnoDiCreazione::2022]]&lt;br /&gt;
&lt;br /&gt;
[[Category:benchmark]]&lt;br /&gt;
&lt;br /&gt;
__SHOWFACTBOX__&lt;/div&gt;</summary>
		<author><name>Sara Maserati</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=A_Large-Scale_Document-Level_Relation_Extraction_Dataset&amp;diff=2165</id>
		<title>A Large-Scale Document-Level Relation Extraction Dataset</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=A_Large-Scale_Document-Level_Relation_Extraction_Dataset&amp;diff=2165"/>
		<updated>2024-04-11T13:42:47Z</updated>

		<summary type="html">&lt;p&gt;Sara Maserati: Creata pagina con &amp;quot;Titolo: Titolo::A Large-Scale Document-Level Relation Extraction Dataset  Anno di Pubblicazione: AnnoDiPubblicazione::2019  Autori: Autori::Yuan Yao et al.  URL: URL::https://aclanthology.org/P19-1074/  Category:pubblicazione  __SHOWFACTBOX__&amp;quot;&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Titolo: [[Titolo::A Large-Scale Document-Level Relation Extraction Dataset]]&lt;br /&gt;
&lt;br /&gt;
Anno di Pubblicazione: [[AnnoDiPubblicazione::2019]]&lt;br /&gt;
&lt;br /&gt;
Autori: [[Autori::Yuan Yao et al.]]&lt;br /&gt;
&lt;br /&gt;
URL: [[URL::https://aclanthology.org/P19-1074/]]&lt;br /&gt;
&lt;br /&gt;
[[Category:pubblicazione]]&lt;br /&gt;
&lt;br /&gt;
__SHOWFACTBOX__&lt;/div&gt;</summary>
		<author><name>Sara Maserati</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=DocRED:_A_Large-Scale_Document-Level_Relation_Extraction_Dataset&amp;diff=2163</id>
		<title>DocRED: A Large-Scale Document-Level Relation Extraction Dataset</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=DocRED:_A_Large-Scale_Document-Level_Relation_Extraction_Dataset&amp;diff=2163"/>
		<updated>2024-04-11T13:40:29Z</updated>

		<summary type="html">&lt;p&gt;Sara Maserati: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Nome: [[Nome::A Large-Scale Document-Level Relation Extraction Dataset]]&lt;br /&gt;
&lt;br /&gt;
Sigla: [[Sigla::DocRED]]&lt;br /&gt;
&lt;br /&gt;
Anno di creazione: [[AnnoDiCreazione::2019]]&lt;br /&gt;
&lt;br /&gt;
URLHomePage: [https://paperswithcode.com/sota/relation-extraction-on-docred Leaderboard su Paperswithcode]&lt;br /&gt;
&lt;br /&gt;
Pubblicazione: [[Pubblicazione::A Large-Scale Document-Level Relation Extraction Dataset]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Rilasciato nel 2019, dataset per benchmanrking dei modelli di [[Relation Extraction (RE)]].&lt;br /&gt;
Annota [[Entità]] e [[Relazioni]] a livello di documento - per estrarle è necessario che l&#039;algoritmo consideri più di una frase alla volta.&lt;br /&gt;
&lt;br /&gt;
Le entità nelle relazioni A-&amp;gt;B vengono normalmente rappresentate come:&lt;br /&gt;
* head (entità A)&lt;br /&gt;
* tail (entità B)&lt;br /&gt;
&lt;br /&gt;
=== Esempio ===&lt;br /&gt;
&lt;br /&gt;
[[File:DocRED.png]]&lt;br /&gt;
&lt;br /&gt;
=== Links ===&lt;br /&gt;
* [https://aclanthology.org/P19-1074/ DocRED: A Large-Scale Document-Level Relation Extraction Dataset]&lt;br /&gt;
* [https://paperswithcode.com/sota/relation-extraction-on-docred Leaderboard su Paperswithcode]&lt;br /&gt;
* [https://github.com/thunlp/DocRED Repo Github]&lt;br /&gt;
&lt;br /&gt;
[[Category:Benchmark]]&lt;br /&gt;
&lt;br /&gt;
__SHOWFACTBOX__&lt;/div&gt;</summary>
		<author><name>Sara Maserati</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Discrete_Reasoning_Over_Paragraphs_(DROP)&amp;diff=2161</id>
		<title>Discrete Reasoning Over Paragraphs (DROP)</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Discrete_Reasoning_Over_Paragraphs_(DROP)&amp;diff=2161"/>
		<updated>2024-04-11T13:38:04Z</updated>

		<summary type="html">&lt;p&gt;Sara Maserati: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Nome: [[Nome::Discrete Reasoning Over Paragraphs]]&lt;br /&gt;
&lt;br /&gt;
Sigla: [[Sigla::DROP]]&lt;br /&gt;
&lt;br /&gt;
Anno di creazione: [[AnnoDiCreazione::2019]]&lt;br /&gt;
&lt;br /&gt;
URLHomePage: [https://paperswithcode.com/dataset/drop DROP (Discrete Reasoning Over Paragraphs)]&lt;br /&gt;
&lt;br /&gt;
== Intro ==&lt;br /&gt;
&#039;&#039;&#039;Il benchmark &amp;quot;DROP&amp;quot; (Discrete Reasoning Over Paragraphs)&#039;&#039;&#039; è stato introdotto per affrontare la sfida della comprensione di testi che richiede un ragionamento discreto. Questo benchmark è stato creato con l&#039;obiettivo di spingere i sistemi di intelligenza artificiale a non solo comprendere il contenuto dei paragrafi ma anche a eseguire operazioni discrete su di essi, come l&#039;addizione, il conteggio o l&#039;ordinamento. &lt;br /&gt;
&lt;br /&gt;
== Esempi ==&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Esempio 1&#039;&#039;&#039;&lt;br /&gt;
* &#039;&#039;&#039;Passage&#039;&#039;&#039; ( è un brano di testo fornito al modello come contesto per le domande che seguiranno.)&lt;br /&gt;
    Per iniziare la stagione, i Lions sono viaggiati verso sud fino a Tampa, Florida per affrontare i Tampa Bay Buccaneers. I Lions hanno segnato per primi nel primo quarto con un field goal da 23 yard di Jason Hanson. I Buccaneers hanno pareggiato con un field goal da 38 yard di Connor Barth, poi hanno preso il comando quando Aqib Talib ha intercettato un passaggio di Matthew Stafford e l&#039;ha portato in touchdown per 28 yard. I Lions hanno risposto con un field goal da 28 yard. Nel secondo quarto, Detroit ha preso il comando con una ricezione da touchdown di 36 yard da Calvin Johnson, e più tardi hanno aggiunto altri punti quando Tony Scheffler ha ricevuto un passaggio da TD di 11 yard. Tampa Bay ha risposto con un field goal da 31 yard poco prima dell&#039;intervallo. La seconda metà è stata relativamente tranquilla, con ogni squadra che ha segnato solo un touchdown. Prima, Calvin Johnson di Detroit ha ricevuto un passaggio da 1 yard nel terzo quarto. I punti finali del gioco sono arrivati quando Mike Williams di Tampa Bay ha ricevuto un passaggio da 5 yard. I Lions hanno vinto la loro partita inaugurale della stagione regolare per la prima volta dal 2007.&lt;br /&gt;
&lt;br /&gt;
* &#039;&#039;&#039;question&#039;&#039;&#039; (è una domanda posta in relazione al &amp;quot;passage&amp;quot; di cui sopra.)&lt;br /&gt;
    Quanti punti avevano bisogno i Buccaneers per pareggiare nel primo quarto?&lt;br /&gt;
&lt;br /&gt;
* &#039;&#039;&#039;answer_spans&#039;&#039;&#039; (indica la porzione del &amp;quot;passage&amp;quot; che contiene la risposta alla &amp;quot;question&amp;quot;.)&lt;br /&gt;
    3&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Esempio 2&#039;&#039;&#039;&lt;br /&gt;
* &#039;&#039;&#039;Passage&#039;&#039;&#039; ( è un brano di testo fornito al modello come contesto per le domande che seguiranno.)&lt;br /&gt;
    Cercando di interrompere una serie negativa di due partite, i Bills volarono allo Gillette Stadium per uno scontro divisionale della settimana 3 con i New England Patriots. Nel primo quarto, il QB J. P. Losman fu subito infortunato nella prima azione offensiva della partita. Riuscì a terminare la serie, ma finì in panchina per il resto della partita. Dopo che New England prese il comando con il field goal da 24 yard del kicker Stephen Gostkowski, il QB rookie Trent Edwards giocò per il resto della partita per Buffalo. I Bills ottennero il loro unico punteggio della partita quando il RB Marshawn Lynch fece una corsa da TD di 8 yard, e un punto extra di Rian Lindell mise sorprendentemente avanti i Bills per 7-3. Tuttavia, nel secondo quarto, i Patriots furono in grado di aprire il loro gioco di corsa quando il rookie di spicco dei Bills Paul Posluszny fu perso a causa di un braccio rotto. Ciò lasciò aperte le corsie di passaggio e, per il resto della partita, i Patriots dominarono. Un passaggio da TD di 8 yard del QB Tom Brady al TE Benjamin Watson e un passaggio da TD di 3 yard al WR Randy Moss portarono il punteggio sul 17-7 all&#039;intervallo. Nel terzo quarto, New England continuò la sua conquista con il passaggio da TD di 4 yard di Brady al WR Jabar Gaffney e la corsa da TD di 4 yard del RB Sammy Morris. Nel quarto quarto, i Patriots terminarono la giornata con Brady e Moss che si collegarono di nuovo con un passaggio da TD di 45 yard.&lt;br /&gt;
&lt;br /&gt;
* &#039;&#039;&#039;question&#039;&#039;&#039; (è una domanda posta in relazione al &amp;quot;passage&amp;quot; di cui sopra.)&lt;br /&gt;
    Quante partite avevano vinto i Bills prima di questa partita?&lt;br /&gt;
&lt;br /&gt;
* &#039;&#039;&#039;answer_spans&#039;&#039;&#039; (indica la porzione del &amp;quot;passage&amp;quot; che contiene la risposta alla &amp;quot;question&amp;quot;.)&lt;br /&gt;
    0&lt;br /&gt;
&lt;br /&gt;
== Strategie per risposte mirate nei Modelli di Linguaggio ==&lt;br /&gt;
&lt;br /&gt;
Per testare i modelli di linguaggio di grandi dimensioni (LLM) su benchmark come &#039;&#039;&#039;DROP&#039;&#039;&#039; (Dataset for Reasoning over Paragraphs), i ricercatori impiegano strategie di prompting e parsing specifiche per assicurarsi che i modelli siano in grado di comprendere e rispondere a domande complesse basate su paragrafi, spesso richiedendo abilità di ragionamento numerico, comprensione del testo, e inferenza.&lt;br /&gt;
&lt;br /&gt;
===Preparazione del Prompt===&lt;br /&gt;
&lt;br /&gt;
Nel caso di DROP, il prompt è particolarmente importante perché le domande possono richiedere al modello di eseguire operazioni complesse, come l&#039;addizione o la sottrazione di numeri trovati nel testo, o di identificare eventi in sequenze temporali. Il prompt fornito al modello include:&lt;br /&gt;
&lt;br /&gt;
* &#039;&#039;&#039;Il paragrafo di riferimento&#039;&#039;&#039;: un testo che contiene le informazioni necessarie per rispondere alla domanda.&lt;br /&gt;
* &#039;&#039;&#039;La domanda&#039;&#039;&#039;: formulata in modo chiaro per indicare che tipo di risposta o operazione è richiesta.&lt;br /&gt;
* &#039;&#039;&#039;Formato di risposta richiesto&#039;&#039;&#039;: può essere specificato se la risposta deve essere un numero, una data, un evento, ecc.&lt;br /&gt;
&lt;br /&gt;
===Generazione della Risposta===&lt;br /&gt;
&lt;br /&gt;
Per garantire che il modello generi solo la risposta specifica richiesta, senza introdurre contesto non necessario, i ricercatori possono:&lt;br /&gt;
&lt;br /&gt;
* &#039;&#039;&#039;Limitare la lunghezza della risposta&#039;&#039;&#039;: impostare un limite alla lunghezza dell&#039;output del modello per incoraggiarlo a generare risposte concise.&lt;br /&gt;
* &#039;&#039;&#039;Usare un prompt chiaro e diretto&#039;&#039;&#039;: formulare il prompt in modo che indichi esplicitamente al modello di fornire solo la risposta richiesta, senza ulteriori elaborazioni o contesto.&lt;br /&gt;
* &#039;&#039;&#039;Post-elaborazione dell&#039;output&#039;&#039;&#039;: in alcuni casi, l&#039;output del modello viene post-elaborato per estrarre solo la parte pertinente, specialmente quando si richiede una risposta numerica o una data specifica.&lt;br /&gt;
&lt;br /&gt;
===Parsing dell&#039;Output===&lt;br /&gt;
&lt;br /&gt;
Il parsing dell&#039;output generato dai modelli in contesti come DROP richiede un&#039;attenzione particolare, soprattutto perché le risposte possono essere numeriche o richiedere una forma specifica. Questo processo può includere:&lt;br /&gt;
&lt;br /&gt;
* &#039;&#039;&#039;Estrazione di informazioni specifiche&#039;&#039;&#039;: utilizzare metodi di estrazione dell&#039;informazione per identificare e isolare numeri, date, o altri dettagli specifici richiesti dalla domanda.&lt;br /&gt;
* &#039;&#039;&#039;Validazione della risposta&#039;&#039;&#039;: applicare regole di validazione per assicurarsi che l&#039;output sia nel formato corretto e rispetti i vincoli della domanda (ad esempio, che sia effettivamente un numero se la risposta richiede calcoli numerici).&lt;br /&gt;
* &#039;&#039;&#039;Uso di tecniche di NLP per il parsing&#039;&#039;&#039;: tecniche di elaborazione del linguaggio naturale possono essere impiegate per analizzare l&#039;output del modello e determinare la correttezza della risposta in base al contesto fornito dalla domanda e dal paragrafo di riferimento.&lt;br /&gt;
&lt;br /&gt;
== Link ==&lt;br /&gt;
* [https://paperswithcode.com/dataset/drop DROP (Discrete Reasoning Over Paragraphs)]&lt;br /&gt;
* [https://huggingface.co/datasets/drop Dataset DROP]&lt;br /&gt;
&lt;br /&gt;
[[Category:benchmark]]&lt;br /&gt;
&lt;br /&gt;
__SHOWFACTBOX__&lt;/div&gt;</summary>
		<author><name>Sara Maserati</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=XTREME:_A_Massively_Multilingual_Multi-task_Benchmark_for_Evaluating_Cross-lingual_Generalization&amp;diff=2157</id>
		<title>XTREME: A Massively Multilingual Multi-task Benchmark for Evaluating Cross-lingual Generalization</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=XTREME:_A_Massively_Multilingual_Multi-task_Benchmark_for_Evaluating_Cross-lingual_Generalization&amp;diff=2157"/>
		<updated>2024-04-11T13:35:28Z</updated>

		<summary type="html">&lt;p&gt;Sara Maserati: Creata pagina con &amp;quot;Titolo: Titolo::XTREME: A Massively Multilingual Multi-task Benchmark for Evaluating Cross-lingual Generalization  Anno di pubblicazione: AnnoDiPubblicazione::2020  Autori: Autori::Junjie Hu et al.  URL: URL::https://arxiv.org/pdf/2003.11080.pdf  Category:pubblicazione  __SHOWFACTBOX__&amp;quot;&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Titolo: [[Titolo::XTREME: A Massively Multilingual Multi-task Benchmark for Evaluating Cross-lingual Generalization]]&lt;br /&gt;
&lt;br /&gt;
Anno di pubblicazione: [[AnnoDiPubblicazione::2020]]&lt;br /&gt;
&lt;br /&gt;
Autori: [[Autori::Junjie Hu et al.]]&lt;br /&gt;
&lt;br /&gt;
URL: [[URL::https://arxiv.org/pdf/2003.11080.pdf]]&lt;br /&gt;
&lt;br /&gt;
[[Category:pubblicazione]]&lt;br /&gt;
&lt;br /&gt;
__SHOWFACTBOX__&lt;/div&gt;</summary>
		<author><name>Sara Maserati</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Cross-lingual_Transfer_Evaluation_of_Multilingual_Encoders_(XTREME)&amp;diff=2154</id>
		<title>Cross-lingual Transfer Evaluation of Multilingual Encoders (XTREME)</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Cross-lingual_Transfer_Evaluation_of_Multilingual_Encoders_(XTREME)&amp;diff=2154"/>
		<updated>2024-04-11T13:33:49Z</updated>

		<summary type="html">&lt;p&gt;Sara Maserati: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Nome: [[Nome::Cross-lingual Transfer Evaluation of Multilingual Encoders]]&lt;br /&gt;
&lt;br /&gt;
Sigla: [[Sigla::XTREME]]&lt;br /&gt;
&lt;br /&gt;
Anno di creazione: [[AnnoDiCreazione::2020]]&lt;br /&gt;
&lt;br /&gt;
Pubblicazione: [[Pubblicazione::XTREME: A Massively Multilingual Multi-task Benchmark for Evaluating Cross-lingual Generalization]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Chiamato anche WikiANN o PAN-X, è un dataset di articoli Wikipedia in vari linguaggi.&lt;br /&gt;
Ogni articolo è annotato con LOC (luogo), PER (persona), ORG (organizzazione) nel formato [[inside-outside-bginning (IOB2)]]&lt;br /&gt;
&lt;br /&gt;
[[File:IOB FORMAT.png|nessuno|miniatura|Formato IOB]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=== Links ===&lt;br /&gt;
https://arxiv.org/abs/2003.11080&lt;br /&gt;
&lt;br /&gt;
[[Category:benchmark]]&lt;br /&gt;
&lt;br /&gt;
__SHOWFACTBOX__&lt;/div&gt;</summary>
		<author><name>Sara Maserati</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=BoolQ&amp;diff=2153</id>
		<title>BoolQ</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=BoolQ&amp;diff=2153"/>
		<updated>2024-04-11T13:31:26Z</updated>

		<summary type="html">&lt;p&gt;Sara Maserati: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Nome: [[Nome::Boolean Questions]]&lt;br /&gt;
&lt;br /&gt;
Sigla: [[BoolQ]]&lt;br /&gt;
&lt;br /&gt;
Anno di creazione: [[AnnoDiCreazione::2019]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Category:benchmark]]&lt;br /&gt;
&lt;br /&gt;
__SHOWFACTBOX__&lt;/div&gt;</summary>
		<author><name>Sara Maserati</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Bilingual_Evaluation_Understudy_(BLEU)&amp;diff=2151</id>
		<title>Bilingual Evaluation Understudy (BLEU)</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Bilingual_Evaluation_Understudy_(BLEU)&amp;diff=2151"/>
		<updated>2024-04-11T13:29:08Z</updated>

		<summary type="html">&lt;p&gt;Sara Maserati: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Nome: [[Nome::Bilingual Evaluation Understudy]]&lt;br /&gt;
&lt;br /&gt;
Sigla: [[Sigla::BLEU]]&lt;br /&gt;
&lt;br /&gt;
Anno di creazione: [[AnnoDiCreazione::2002]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Nei task di traduzione automatica o di generazione del testo, indica il grado di somiglianza del testo del candidato rispetto ai testi di riferimento, con valori più vicini a uno che rappresentano testi più simili. Il punteggio BLEU fornisce una valutazione complessiva della qualità del modello.&lt;br /&gt;
&lt;br /&gt;
Per esempio citato in [[Attention Is All You Need (2017)]] &lt;br /&gt;
&lt;br /&gt;
[[Category:benchmark]]&lt;br /&gt;
&lt;br /&gt;
__SHOWFACTBOX__&lt;/div&gt;</summary>
		<author><name>Sara Maserati</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=In_Search_of_Needles_in_a_11M_Haystack:Recurrent_Memory_Finds_What_LLMs_Miss&amp;diff=2150</id>
		<title>In Search of Needles in a 11M Haystack:Recurrent Memory Finds What LLMs Miss</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=In_Search_of_Needles_in_a_11M_Haystack:Recurrent_Memory_Finds_What_LLMs_Miss&amp;diff=2150"/>
		<updated>2024-04-11T13:26:08Z</updated>

		<summary type="html">&lt;p&gt;Sara Maserati: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Titolo: [[Titolo::In Search of Needles in a 11M Haystack:Recurrent Memory Finds What LLMs Miss]]&lt;br /&gt;
&lt;br /&gt;
Anno di pubblicazione: [[AnnoDiPubblicazione::2024]]&lt;br /&gt;
&lt;br /&gt;
Autori: [[Autori::Yuri Kuratov et al.]]&lt;br /&gt;
&lt;br /&gt;
URL: [[URL::https://arxiv.org/pdf/2402.10790.pdf]]&lt;br /&gt;
&lt;br /&gt;
[[Category:pubblicazione]]&lt;br /&gt;
&lt;br /&gt;
__SHOWFACTBOX__&lt;/div&gt;</summary>
		<author><name>Sara Maserati</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=In_Search_of_Needles_in_a_11M_Haystack:Recurrent_Memory_Finds_What_LLMs_Miss&amp;diff=2149</id>
		<title>In Search of Needles in a 11M Haystack:Recurrent Memory Finds What LLMs Miss</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=In_Search_of_Needles_in_a_11M_Haystack:Recurrent_Memory_Finds_What_LLMs_Miss&amp;diff=2149"/>
		<updated>2024-04-11T13:25:51Z</updated>

		<summary type="html">&lt;p&gt;Sara Maserati: Creata pagina con &amp;quot;Titolo: Titolo::In Search of Needles in a 11M Haystack:Recurrent Memory Finds What LLMs Miss  Anno di pubblicazione: AnnoDiPubblicazione::2024  Autori: Autori::Yuri Kuratov et al.  URL: URL::https://arxiv.org/pdf/2402.10790.pdf  [Category:pubblicazione]  __SHOWFACTBOX__&amp;quot;&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Titolo: [[Titolo::In Search of Needles in a 11M Haystack:Recurrent Memory Finds What LLMs Miss]]&lt;br /&gt;
&lt;br /&gt;
Anno di pubblicazione: [[AnnoDiPubblicazione::2024]]&lt;br /&gt;
&lt;br /&gt;
Autori: [[Autori::Yuri Kuratov et al.]]&lt;br /&gt;
&lt;br /&gt;
URL: [[URL::https://arxiv.org/pdf/2402.10790.pdf]]&lt;br /&gt;
&lt;br /&gt;
[Category:pubblicazione]&lt;br /&gt;
&lt;br /&gt;
__SHOWFACTBOX__&lt;/div&gt;</summary>
		<author><name>Sara Maserati</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=BABILong&amp;diff=2148</id>
		<title>BABILong</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=BABILong&amp;diff=2148"/>
		<updated>2024-04-11T13:23:37Z</updated>

		<summary type="html">&lt;p&gt;Sara Maserati: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Nome: [[Nome::BABILong]]&lt;br /&gt;
&lt;br /&gt;
Anno di creazione: [[AnnoDiCreazione::2024]]&lt;br /&gt;
&lt;br /&gt;
URLHomePage: [https://github.com/booydar/babilong?tab=readme-ov-file BABILong: a long-context needle-in-a-haystack benchmark for LLMs]&lt;br /&gt;
&lt;br /&gt;
Pubblicazioni: [[In Search of Needles in a 11M Haystack:Recurrent Memory Finds What LLMs Miss]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Nome: Il nome ufficiale dell&#039;architettura.&lt;br /&gt;
Sigla: Un&#039;abbreviazione o acronimo associato all&#039;architettura.&lt;br /&gt;
AnnoDiCreazione: L&#039;anno in cui l&#039;architettura è stata proposta o introdotta per la prima volta.&lt;br /&gt;
URLHomePage: http://esempioarchitettura.com Un collegamento all&#039;homepage dell&#039;architettura.&lt;br /&gt;
Pubblicazione: Pubblicazione/i&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;BABILong&#039;&#039;&#039; è un benchmark progettato per valutare le capacità del modello nell&#039;estrazione ed elaborazione di fatti distribuiti all&#039;interno di testi estesi.&lt;br /&gt;
&lt;br /&gt;
Risolvere compiti con una dimensione di contesto lunga richiede al modello di distinguere informazioni importanti da grandi quantità di dettagli irrilevanti. Per simulare questo comportamento, &amp;quot;nascondiamo&amp;quot; le frasi del compito originale tra le frasi di testo irrilevante che proviene da un&#039;altra distribuzione strettamente correlata (vedi Figura 1). &lt;br /&gt;
&lt;br /&gt;
[[File:Screenshot 2024-03-20 alle 14.17.32.png|centro|miniatura|&#039;&#039;&#039;Figura1:&#039;&#039;&#039; Esempio di generazione per il dataset BABILong. Le affermazioni rilevanti per la domanda da un campione di bAbILong sono nascoste all&#039;interno di testi più ampi e irrilevanti provenienti da PG19.]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Questo approccio è basato sui primi test &amp;quot;&#039;&#039;&#039;ago nel pagliaio&#039;&#039;&#039;&amp;quot;. Si tratta di un test che mira a testare la capacità di un sistema AI di &#039;&#039;&#039;identificare&#039;&#039;&#039;, &#039;&#039;&#039;estrarre&#039;&#039;&#039;, o &#039;&#039;&#039;riconoscere&#039;&#039;&#039; un&#039;informazione molto specifica o un elemento (l&#039;&amp;quot;ago&amp;quot;) da un vasto insieme di dati o informazioni non pertinenti (il &amp;quot;pagliaio&amp;quot;). Questo concetto può essere applicato in vari ambiti, come il riconoscimento di pattern, la ricerca di informazioni, il processamento del linguaggio naturale, e altri campi dell&#039;AI dove il sistema deve dimostrare di poter effettivamente &amp;quot;trovare l&#039;ago nel pagliaio&amp;quot;.&lt;br /&gt;
&lt;br /&gt;
== Link ==&lt;br /&gt;
=== Paper ===&lt;br /&gt;
[https://arxiv.org/pdf/2402.10790.pdf In Search of Needles in a 11M Haystack:Recurrent Memory Finds What LLMs Miss]: paper originale&lt;br /&gt;
&lt;br /&gt;
=== Github ===&lt;br /&gt;
[https://github.com/booydar/babilong?tab=readme-ov-file BABILong: a long-context needle-in-a-haystack benchmark for LLMs]&lt;br /&gt;
&lt;br /&gt;
[[Category:benchmark]]&lt;br /&gt;
&lt;br /&gt;
__SHOWFACTBOX__&lt;/div&gt;</summary>
		<author><name>Sara Maserati</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=BABILong&amp;diff=2147</id>
		<title>BABILong</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=BABILong&amp;diff=2147"/>
		<updated>2024-04-11T13:23:19Z</updated>

		<summary type="html">&lt;p&gt;Sara Maserati: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Nome: [[Nome::BABILong]]&lt;br /&gt;
&lt;br /&gt;
Anno di creazione: [[AnnoDiCreazione::2024]]&lt;br /&gt;
&lt;br /&gt;
URLHomePage: [https://github.com/booydar/babilong?tab=readme-ov-file BABILong: a long-context needle-in-a-haystack benchmark for LLMs]&lt;br /&gt;
&lt;br /&gt;
Pubblicazioni: [[https://arxiv.org/pdf/2402.10790.pdf In Search of Needles in a 11M Haystack:Recurrent Memory Finds What LLMs Miss]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Nome: Il nome ufficiale dell&#039;architettura.&lt;br /&gt;
Sigla: Un&#039;abbreviazione o acronimo associato all&#039;architettura.&lt;br /&gt;
AnnoDiCreazione: L&#039;anno in cui l&#039;architettura è stata proposta o introdotta per la prima volta.&lt;br /&gt;
URLHomePage: http://esempioarchitettura.com Un collegamento all&#039;homepage dell&#039;architettura.&lt;br /&gt;
Pubblicazione: Pubblicazione/i&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;BABILong&#039;&#039;&#039; è un benchmark progettato per valutare le capacità del modello nell&#039;estrazione ed elaborazione di fatti distribuiti all&#039;interno di testi estesi.&lt;br /&gt;
&lt;br /&gt;
Risolvere compiti con una dimensione di contesto lunga richiede al modello di distinguere informazioni importanti da grandi quantità di dettagli irrilevanti. Per simulare questo comportamento, &amp;quot;nascondiamo&amp;quot; le frasi del compito originale tra le frasi di testo irrilevante che proviene da un&#039;altra distribuzione strettamente correlata (vedi Figura 1). &lt;br /&gt;
&lt;br /&gt;
[[File:Screenshot 2024-03-20 alle 14.17.32.png|centro|miniatura|&#039;&#039;&#039;Figura1:&#039;&#039;&#039; Esempio di generazione per il dataset BABILong. Le affermazioni rilevanti per la domanda da un campione di bAbILong sono nascoste all&#039;interno di testi più ampi e irrilevanti provenienti da PG19.]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Questo approccio è basato sui primi test &amp;quot;&#039;&#039;&#039;ago nel pagliaio&#039;&#039;&#039;&amp;quot;. Si tratta di un test che mira a testare la capacità di un sistema AI di &#039;&#039;&#039;identificare&#039;&#039;&#039;, &#039;&#039;&#039;estrarre&#039;&#039;&#039;, o &#039;&#039;&#039;riconoscere&#039;&#039;&#039; un&#039;informazione molto specifica o un elemento (l&#039;&amp;quot;ago&amp;quot;) da un vasto insieme di dati o informazioni non pertinenti (il &amp;quot;pagliaio&amp;quot;). Questo concetto può essere applicato in vari ambiti, come il riconoscimento di pattern, la ricerca di informazioni, il processamento del linguaggio naturale, e altri campi dell&#039;AI dove il sistema deve dimostrare di poter effettivamente &amp;quot;trovare l&#039;ago nel pagliaio&amp;quot;.&lt;br /&gt;
&lt;br /&gt;
== Link ==&lt;br /&gt;
=== Paper ===&lt;br /&gt;
[https://arxiv.org/pdf/2402.10790.pdf In Search of Needles in a 11M Haystack:Recurrent Memory Finds What LLMs Miss]: paper originale&lt;br /&gt;
&lt;br /&gt;
=== Github ===&lt;br /&gt;
[https://github.com/booydar/babilong?tab=readme-ov-file BABILong: a long-context needle-in-a-haystack benchmark for LLMs]&lt;br /&gt;
&lt;br /&gt;
[[Category:benchmark]]&lt;br /&gt;
&lt;br /&gt;
__SHOWFACTBOX__&lt;/div&gt;</summary>
		<author><name>Sara Maserati</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=An_Evaluation_Dataset_for_Intent_Classification_and_Out-of-Scope_Prediction_(CLINC150)&amp;diff=2143</id>
		<title>An Evaluation Dataset for Intent Classification and Out-of-Scope Prediction (CLINC150)</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=An_Evaluation_Dataset_for_Intent_Classification_and_Out-of-Scope_Prediction_(CLINC150)&amp;diff=2143"/>
		<updated>2024-04-11T13:09:13Z</updated>

		<summary type="html">&lt;p&gt;Sara Maserati: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Nome: [[Nome::An Evaluation Dataset for Intent Classification and Out-of-Scope Prediction]]&lt;br /&gt;
&lt;br /&gt;
Sigla: [[Sigla::CLINC150]]&lt;br /&gt;
&lt;br /&gt;
Anno di creazione: [[AnnoDiCreazione::2019]]&lt;br /&gt;
&lt;br /&gt;
URLHomePage: [https://paperswithcode.com/dataset/clinc150 An Evaluation Dataset for Intent Classification and Out-of-Scope Prediction (CLINC150)] &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Dataset per valutare la performance di un classificatore di domande fuori contesto (out-of-scope) per il task di [[classificazione degli intenti]].&lt;br /&gt;
&lt;br /&gt;
=== Links ===&lt;br /&gt;
https://paperswithcode.com/dataset/clinc150&lt;br /&gt;
https://arxiv.org/abs/1909.02027&lt;br /&gt;
&lt;br /&gt;
[[Category:benchmark]]&lt;br /&gt;
&lt;br /&gt;
__SHOWFACTBOX__&lt;/div&gt;</summary>
		<author><name>Sara Maserati</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=AI2_Reasoning_Challenge_(Arc_C)&amp;diff=2142</id>
		<title>AI2 Reasoning Challenge (Arc C)</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=AI2_Reasoning_Challenge_(Arc_C)&amp;diff=2142"/>
		<updated>2024-04-11T13:06:14Z</updated>

		<summary type="html">&lt;p&gt;Sara Maserati: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Nome: [[Nome::AI2 Reasoning Challenge]]&lt;br /&gt;
&lt;br /&gt;
Sigla: [[Sigla::Arc C]]&lt;br /&gt;
&lt;br /&gt;
Anno di creazione: [[AnnoDiCreazione::2018]]&lt;br /&gt;
&lt;br /&gt;
URLHomePage: [https://paperswithcode.com/dataset/arc ARC (AI2 Reasoning Challenge)]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Intro ==&lt;br /&gt;
&#039;&#039;&#039;Il benchmark ARC Challenge (&amp;quot;AI2 Reasoning Challenge&amp;quot;)&#039;&#039;&#039; è un insieme di test progettato per valutare la capacità dei sistemi di intelligenza artificiale (IA) di eseguire ragionamento complesso e di senso comune. Il benchmark ARC si concentra in particolare sulla capacità dei modelli di AI di rispondere a domande di scienza di livello scolastico, coprendo una vasta gamma di argomenti e richiedendo una comprensione approfondita e il ragionamento oltre la mera capacità di cercare informazioni o utilizzare conoscenze superficiali.&lt;br /&gt;
&lt;br /&gt;
== Esempi ==&lt;br /&gt;
&lt;br /&gt;
* &#039;&#039;&#039;Esempio 1&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Domanda:&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
    &amp;quot;George vuole riscaldare le sue mani rapidamente strofinandole. Quale superficie della pelle produrrà più calore?&amp;quot;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Opzioni di risposta:&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
    A) palmi asciutti&lt;br /&gt;
    B) palmi bagnati&lt;br /&gt;
    C) palmi coperti di olio&lt;br /&gt;
    D) palmi coperti di lozione&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Risposta:&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
    &amp;quot;A)&amp;quot;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
* &#039;&#039;&#039;Esempio 2&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Domanda:&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
    &amp;quot;Quale delle seguenti è una caratteristica che un cane NON eredita dai suoi genitori?&amp;quot;&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Opzioni di risposta:&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
    A) la lunghezza del suo pelo&lt;br /&gt;
    B) la forma del suo naso&lt;br /&gt;
    C) la grandezza del suo appetito&lt;br /&gt;
    D) il colore del suo pelo&lt;br /&gt;
&lt;br /&gt;
&#039;&#039;&#039;Risposta:&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
    &amp;quot;C)&amp;quot;&lt;br /&gt;
&lt;br /&gt;
== Strategie per risposte mirate nei Modelli di Linguaggio ==&lt;br /&gt;
&lt;br /&gt;
Per testare i modelli di linguaggio di grandi dimensioni (LLM) su benchmark come &#039;&#039;&#039;ARC Challenge&#039;&#039;&#039; (ARC-C), i ricercatori seguono un processo dettagliato che assicura la capacità del modello di generare risposte precise a domande di ragionamento complesso, focalizzandosi sulla generazione di una singola label (risposta) senza introdurre informazioni aggiuntive non necessarie.&lt;br /&gt;
&lt;br /&gt;
=== Preparazione del Prompt ===&lt;br /&gt;
&lt;br /&gt;
La preparazione del prompt è cruciale per indirizzare il modello verso la generazione della risposta desiderata. Il prompt per ARC-C include tipicamente:&lt;br /&gt;
&lt;br /&gt;
* &#039;&#039;&#039;La domanda di ragionamento complesso&#039;&#039;&#039;: Una domanda progettata per testare la capacità di ragionamento astratto del modello.&lt;br /&gt;
* &#039;&#039;&#039;Opzioni di risposta multiple&#039;&#039;&#039;: Un elenco di possibili risposte tra cui il modello deve scegliere.&lt;br /&gt;
* &#039;&#039;&#039;Istruzioni chiare&#039;&#039;&#039;: Direttive che indicano al modello di selezionare la risposta più appropriata senza fornire ulteriori spiegazioni o contesto.&lt;br /&gt;
&lt;br /&gt;
=== Generazione della Risposta ===&lt;br /&gt;
&lt;br /&gt;
Per assicurarsi che il modello generi solo una label specifica, i ricercatori utilizzano diverse tecniche:&lt;br /&gt;
&lt;br /&gt;
* &#039;&#039;&#039;Limitazione della Lunghezza dell&#039;Output&#039;&#039;&#039;: Impostano limiti sulla lunghezza dell&#039;output per prevenire risposte prolisse e fuori tema.&lt;br /&gt;
* &#039;&#039;&#039;Formato di Risposta Chiuso&#039;&#039;&#039;: Specificano un formato di risposta chiuso nel prompt, chiedendo esplicitamente al modello di scegliere tra le opzioni date (ad esempio, &amp;quot;Seleziona la lettera della risposta corretta: A, B, C, o D&amp;quot;).&lt;br /&gt;
* &#039;&#039;&#039;Post-elaborazione&#039;&#039;&#039;: In alcuni casi, l&#039;output del modello viene post-elaborato per rimuovere qualsiasi contenuto non pertinente e isolare la label di risposta.&lt;br /&gt;
&lt;br /&gt;
=== Parsing dell&#039;Output ===&lt;br /&gt;
&lt;br /&gt;
Il parsing dell&#039;output, specialmente quando potrebbe essere verboso o indiretto, richiede l&#039;uso di metodi specifici per estrarre la risposta corretta:&lt;br /&gt;
&lt;br /&gt;
* &#039;&#039;&#039;Estrazione Basata su Regole&#039;&#039;&#039;: Utilizzo di regole specifiche o espressioni regolari per identificare la label di risposta nell&#039;output.&lt;br /&gt;
* &#039;&#039;&#039;Analisi del Testo&#039;&#039;&#039;: Applicazione di tecniche di elaborazione del linguaggio naturale (NLP) per analizzare l&#039;output e determinare la risposta più plausibile basata sul contesto della domanda.&lt;br /&gt;
&lt;br /&gt;
== Link ==&lt;br /&gt;
* [https://paperswithcode.com/dataset/arc ARC (AI2 Reasoning Challenge)]&lt;br /&gt;
* [https://huggingface.co/datasets/allenai/ai2_arc/viewer/ARC-Challenge/train?row=8 Dataset Arc C]&lt;br /&gt;
&lt;br /&gt;
[[Category:benchmark]]&lt;br /&gt;
&lt;br /&gt;
__SHOWFACTBOX__&lt;/div&gt;</summary>
		<author><name>Sara Maserati</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Tensore_(Informatica)&amp;diff=2140</id>
		<title>Tensore (Informatica)</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Tensore_(Informatica)&amp;diff=2140"/>
		<updated>2024-04-11T13:01:05Z</updated>

		<summary type="html">&lt;p&gt;Sara Maserati: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Nome: [[Nome::Tensore]]&lt;br /&gt;
&lt;br /&gt;
Nome inglese: [[NomeInglese::Tensor]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Un tensore è una generalizzazione di vettori e matrici ed è un elemento fondamentale nelle moderne architetture di Intelligenza Artificiale. È sostanzialmente un &#039;&#039;&#039;array multidimensionale&#039;&#039;&#039; che può variare da una dimensione (una linea di numeri, simile a un vettore) a diverse dimensioni (per esempio, matrici per 2D, array tridimensionali, ecc.). I tensori sono utilizzati per organizzare i dati per l&#039;elaborazione di algoritmi di machine learning e possono essere manipolati efficacemente sia su CPU che su GPU.&lt;br /&gt;
&lt;br /&gt;
Un &#039;&#039;&#039;vettore&#039;&#039;&#039; è un tensore di ordine 1 o una dimensione che si presenta come a un array lineare di numeri. Ad esempio, un vettore contenente i numeri [1,2,3] può essere considerato un tensore unidimensionale.&lt;br /&gt;
&lt;br /&gt;
Una &#039;&#039;&#039;matrice&#039;&#039;&#039; è un tensore di ordine 2 o due dimensioni. Questo significa che ha due assi: righe e colonne. Ad esempio, una matrice 2×3 è composta da due righe e tre colonne ed è un tensore bidimensionale.&lt;br /&gt;
&lt;br /&gt;
Un tensore può avere anche tre, quattro, o più dimensioni. Queste dimensioni superiori sono spesso utilizzate in applicazioni di deep learning per rappresentare dati più complessi, come immagini (che possono essere rappresentate come tensori 3D per altezza, larghezza e canali di colore) o video (che possono essere rappresentati come tensori 4D aggiungendo la dimensione temporale ai tensori 3D delle immagini).&lt;br /&gt;
&lt;br /&gt;
== Tutorial ==&lt;br /&gt;
[[Come creare un tensore su Pytorch]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[Category:concetto]]&lt;br /&gt;
&lt;br /&gt;
__SHOWFACTBOX__&lt;/div&gt;</summary>
		<author><name>Sara Maserati</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Temperatura_(Apprendimento_Automatico)&amp;diff=2139</id>
		<title>Temperatura (Apprendimento Automatico)</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Temperatura_(Apprendimento_Automatico)&amp;diff=2139"/>
		<updated>2024-04-11T13:00:11Z</updated>

		<summary type="html">&lt;p&gt;Sara Maserati: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Nome: [[Nome::Temperatura]]&lt;br /&gt;
&lt;br /&gt;
Nome inglese: [NomeInglese::Temperature]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
La temperatura è un parametro nell&#039;ambito dell&#039;apprendimento automatico, specialmente nei modelli sequenziali come le [[Recurrent Neural Network (RNN)|RNN]] e i [[transformer]]. Questo parametro è un numero strettamente maggiore di zero e normalmente inferiore a 2 o 3, con impatti diretti sulla selezione del token successivo durante il processo di generazione del testo.&lt;br /&gt;
&lt;br /&gt;
La temperatura è utilizzata per modulare la distribuzione di probabilità dei token generati dai modelli. Invece di optare per una [[Metodi di Decoding|decodifica Greedy]], che seleziona sempre il token con la massima probabilità calcolata tramite [[Negative log-likelihood|log-likelihood]], l&#039;introduzione della temperatura agisce sul risultato della [[Metodi di Decoding|decodifica a campionamento]]: questo approccio estrae un token casuale basandosi sulla distribuzione di probabilità (modificata dalla temperatura) dei possibili token successivi.&lt;br /&gt;
&lt;br /&gt;
Durante il processo di generazione, la temperatura agisce sui [[Logit (Reti Neurali)|logit]], i quali sono i valori emessi dall&#039;ultimo [[layer totalmente connesso]] del modello prima dell&#039;applicazione della funzione softmax per ottenere le probabilità. La modifica consiste nel dividere i logit per il valore della temperatura prima di calcolare la distribuzione di probabilità finale. Un valore di temperatura più alto genera una distribuzione più uniforme, aumentando così la varietà e la casualità nella scelta dei token. Al contrario, una temperatura più bassa rende la distribuzione più &amp;quot;affilata&amp;quot;, favorendo la scelta dei token con probabilità più alta e riducendo la varietà, e dando più spesso il token che &amp;quot;ci si aspetta di più&amp;quot; avere nella generazione autoregressiva.&lt;br /&gt;
&lt;br /&gt;
In pratica, l&#039;uso della temperatura permette agli sviluppatori e ai ricercatori di bilanciare tra diversità e precisione nelle generazioni testuali dei modelli. Una temperatura vicina a 1 tende a mantenere un buon equilibrio, mentre valori superiori o inferiori possono essere sperimentati per ottenere risultati più creativi o più conservativi, rispettivamente.&lt;br /&gt;
&lt;br /&gt;
[[Category:concetto]]&lt;br /&gt;
&lt;br /&gt;
__SHOWFACTBOX__&lt;/div&gt;</summary>
		<author><name>Sara Maserati</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Teacher_Forcing_(Reti_Neurali)&amp;diff=2138</id>
		<title>Teacher Forcing (Reti Neurali)</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Teacher_Forcing_(Reti_Neurali)&amp;diff=2138"/>
		<updated>2024-04-11T12:59:12Z</updated>

		<summary type="html">&lt;p&gt;Sara Maserati: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
&lt;br /&gt;
Nome inglese: [[NomeInglese::Teacher Forcing]]&lt;br /&gt;
&lt;br /&gt;
Una tecnica di ottimizzazione per i modelli autoregressivi in cui l&#039;output del time-step precedente viene sostituito con l&#039;output atteso, nel caso in cui questo sia conosciuto, aumentando le probabilità che il modello converga e diminuendo il tempo di training.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
=== Links ===&lt;br /&gt;
&lt;br /&gt;
https://machinelearningmastery.com/teacher-forcing-for-recurrent-neural-networks/&lt;br /&gt;
&lt;br /&gt;
[[Category:concetto]]&lt;br /&gt;
&lt;br /&gt;
__SHOWFACTBOX__&lt;/div&gt;</summary>
		<author><name>Sara Maserati</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Step_by_Step&amp;diff=2136</id>
		<title>Step by Step</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Step_by_Step&amp;diff=2136"/>
		<updated>2024-04-11T12:57:29Z</updated>

		<summary type="html">&lt;p&gt;Sara Maserati: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Nome inglese: [[NomeInglese::Step by Step]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Lo &#039;&#039;Step by Step reasoning&#039;&#039; è una tecnica impiegata nei Large Language Models (LLM) per migliorare la capacità di questi modelli di gestire compiti complessi di ragionamento, scomponendoli in &#039;&#039;&#039;passaggi più piccoli e gestibili&#039;&#039;&#039;. Questo approccio consente ai modelli di affrontare problemi in maniera più strutturata e di fornire spiegazioni più dettagliate sul loro processo decisionale.&lt;br /&gt;
&lt;br /&gt;
==Paper e link==&lt;br /&gt;
* &#039;&#039;&#039;[[Why think step by step? Reasoning emerges from the locality of experience (2023)]]&#039;&#039;&#039;&lt;br /&gt;
* &#039;&#039;&#039;https://arxiv.org/pdf/2304.03843.pdf&#039;&#039;&#039;&lt;br /&gt;
&lt;br /&gt;
[[Category:concetto]]&lt;br /&gt;
&lt;br /&gt;
__SHOWFACTBOX__&lt;/div&gt;</summary>
		<author><name>Sara Maserati</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Softmax&amp;diff=2135</id>
		<title>Softmax</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Softmax&amp;diff=2135"/>
		<updated>2024-04-11T12:56:54Z</updated>

		<summary type="html">&lt;p&gt;Sara Maserati: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Nome inglese: [[NomeInglese::Softmax]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Softmax, anche chiamata &#039;&#039;softargmax&#039;&#039; o &#039;&#039;funzione esponenziale normalizzata,&#039;&#039; è una [[Funzione di Attivazione]] che viene utilizzata dopo l&#039;ultimo layer delle reti neurali per trasformare i [[Logit (Reti Neurali)|logit]] in probabilità, nell&#039;ambito di classificazione multiclasse (per la classificazione binaria si usa la funzione [[Sigmoide|sigmoide]].&lt;br /&gt;
&lt;br /&gt;
La funzione Softmax mette in evidenza i valori più grandi e &amp;quot;nasconde&amp;quot; quelli che sono significativamente più piccoli del valore massimo: la somma dei valori tornati dalla funzione è uguale a 1.0.&lt;br /&gt;
&lt;br /&gt;
Spesso viene utilizzato logaritmo di Softmax, chiamato log-softmax, in quanto presenta caratteristiche di trattabilità matematica migliori: log softmax va da -inf (probabilità 0) a zero (prob 1), e questa sua estensione permette al processo di ottimizzazione di non dover agire sui valori con una gamma piccola come quelli di probabilità (0-1).&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
[[File:Softmax.png|senza_cornice|500x500px]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Un esempio in pytorch:&lt;br /&gt;
 x = torch.randn(1, 3, 224, 224)&lt;br /&gt;
 logits = m(x)&lt;br /&gt;
 logits &lt;br /&gt;
  &lt;br /&gt;
 &amp;gt;&amp;gt; tensor(&amp;lt;nowiki&amp;gt;[[-0.2135, -0.0248,  3.985, -4.235, -0.1831]]&amp;lt;/nowiki&amp;gt;, grad_fn=&amp;lt;AddmmBackward0&amp;gt;)&lt;br /&gt;
 &lt;br /&gt;
 &lt;br /&gt;
 scores = torch.softmax(logits)&lt;br /&gt;
 scores &lt;br /&gt;
 &lt;br /&gt;
 &lt;br /&gt;
 &amp;gt;&amp;gt; tensor(&amp;lt;nowiki&amp;gt;[[0.0096, 0.0117, 0.9765, 0.0002, 0.0020]]&amp;lt;/nowiki&amp;gt;, grad_fn=&amp;lt;SoftmaxBackward0&amp;gt;)&lt;br /&gt;
&lt;br /&gt;
=== Links ===&lt;br /&gt;
https://en.wikipedia.org/wiki/Activation_function&lt;br /&gt;
[[Category:concetto]]&lt;br /&gt;
&lt;br /&gt;
__SHOWFACTBOX__&lt;/div&gt;</summary>
		<author><name>Sara Maserati</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Sigmoide&amp;diff=2134</id>
		<title>Sigmoide</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Sigmoide&amp;diff=2134"/>
		<updated>2024-04-11T12:56:25Z</updated>

		<summary type="html">&lt;p&gt;Sara Maserati: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Nome: [[Nome::Sigmoide]]&lt;br /&gt;
&lt;br /&gt;
Nome inglese: [[NomeInglese::Sigmoid]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Il Sigmoide, anche chiamata &#039;&#039;funzione logistica&#039;&#039;, è una [[funzione di attivazione]] utilizzata per trasformare i [[Logit (Reti Neurali)|logit]] in probabilità, in un contesto di classificazione binaria&lt;br /&gt;
&lt;br /&gt;
[[File:Sigmoide.png|senza_cornice|500x500px]]&lt;br /&gt;
[[Category:concetto]]&lt;br /&gt;
&lt;br /&gt;
__SHOWFACTBOX__&lt;/div&gt;</summary>
		<author><name>Sara Maserati</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Scaling_Laws&amp;diff=2133</id>
		<title>Scaling Laws</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Scaling_Laws&amp;diff=2133"/>
		<updated>2024-04-11T12:55:36Z</updated>

		<summary type="html">&lt;p&gt;Sara Maserati: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Nome: [[Nome::Leggi di Scaling]]&lt;br /&gt;
&lt;br /&gt;
Nome inglese: [[NomeInglese::Scaling Laws]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Proposte da Hoffman et al nel 2022&lt;br /&gt;
&lt;br /&gt;
=== Links ===&lt;br /&gt;
[https://arxiv.org/abs/2203.15556 https://arxiv.org/abs/2203.15556]&lt;br /&gt;
&lt;br /&gt;
[[Category:concetto]]&lt;br /&gt;
&lt;br /&gt;
__SHOWFACTBOX__&lt;/div&gt;</summary>
		<author><name>Sara Maserati</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=Scaling_Laws&amp;diff=2132</id>
		<title>Scaling Laws</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=Scaling_Laws&amp;diff=2132"/>
		<updated>2024-04-11T12:55:23Z</updated>

		<summary type="html">&lt;p&gt;Sara Maserati: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Nome: [[Nome::Leggi di Scaling]]&lt;br /&gt;
&lt;br /&gt;
Nome inglese: [[NomeInglese::Scaling Laws]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Proposte da Hoffman et al nel 2022&lt;br /&gt;
&lt;br /&gt;
=== Links ===&lt;br /&gt;
[https://arxiv.org/abs/2203.15556 https://arxiv.org/abs/2203.15556]&lt;br /&gt;
&lt;br /&gt;
[[Category:concetto]]&lt;br /&gt;
&lt;br /&gt;
__SHOWFACTBOX__&lt;/div&gt;</summary>
		<author><name>Sara Maserati</name></author>
	</entry>
	<entry>
		<id>https://wiki.mindmaker.it/index.php?title=SOTA&amp;diff=2131</id>
		<title>SOTA</title>
		<link rel="alternate" type="text/html" href="https://wiki.mindmaker.it/index.php?title=SOTA&amp;diff=2131"/>
		<updated>2024-04-11T12:51:15Z</updated>

		<summary type="html">&lt;p&gt;Sara Maserati: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Nome: [[Nome::Stato dell&#039;Arte]]&lt;br /&gt;
&lt;br /&gt;
Nome inglese: [[NomeInglese::State Of The Art]]&lt;br /&gt;
&lt;br /&gt;
Sigla: [[Sigla::SOTA]]&lt;br /&gt;
&lt;br /&gt;
Acronimo per State Of The Art&lt;br /&gt;
&lt;br /&gt;
[[Category:concetto]]&lt;br /&gt;
&lt;br /&gt;
__SHOWFACTBOX__&lt;/div&gt;</summary>
		<author><name>Sara Maserati</name></author>
	</entry>
</feed>