Tutti i registri pubblici
Presentazione unificata di tutti i registri di Wiki AI. È possibile restringere i criteri di ricerca selezionando il tipo di registro, l'utente che ha eseguito l'azione, e/o la pagina interessata (entrambi i campi sono sensibili al maiuscolo/minuscolo).
- 19:54, 28 feb 2024 Alesaccoia discussione contributi ha creato la pagina Gorilla OpenFunctions (Creata pagina con "Modello ottimizzato per il function calling == Links == [https://gorilla.cs.berkeley.edu/blogs/4_open_functions.html https://gorilla.cs.berkeley.edu/blogs/4_open_functions.html] [https://huggingface.co/gorilla-llm/gorilla-openfunctions-v2 https://huggingface.co/gorilla-llm/gorilla-openfunctions-v2]")
- 16:05, 28 feb 2024 Stefano discussione contributi ha creato la pagina Reasoning Gap (Creata pagina con "== Reasoning Gap nel campo degli LLM == Il "Reasoning Gap" nel campo degli LLM (Legal and Legislative Modeling) si riferisce alla discrepanza o alla mancanza di coerenza nel processo di ragionamento legale o legislativo. In altre parole, si tratta di una situazione in cui esiste una lacuna o un difetto nel collegamento logico tra le premesse, i fatti e le conclusioni nelle argomentazioni legali. Questa discrepanza può manifestarsi in diversi modi: * Mancanza di connes...")
- 16:03, 28 feb 2024 193.206.116.167 discussione ha creato la pagina Legge di Scaling (Creata pagina con "La Legge di Scaling per i Modelli di Linguaggio (LLM) sono delle relazioni empiriche che descrivono come la perdita (o errore) nei modelli di linguaggio diminuisca man mano che il modello diventa più grande. Per "distribuzione linguistica" ci si riferisce alla varietà e alla distribuzione dei pezzi di testo che un modello di linguaggio può generare o comprendere. Questi "pezzi di testo" sono fondamentalmente frammenti di lingua che il modello utilizza per imparare e g...")
- 16:02, 28 feb 2024 Stefano discussione contributi ha creato la pagina Step by Step (Creata pagina con "== Ragionamento Step by Step nei Linguaggi del Livello Morfologico (LLM) == Il ragionamento step by step nei Linguaggi del Livello Morfologico (LLM) è un processo essenziale per comprendere la formazione e l'interpretazione delle parole all'interno della morfologia linguistica. Questo approccio analitico scompone ogni fase del processo morfologico in passaggi distinti al fine di esaminare dettagliatamente come le unità linguistiche si combinano e si influenzano a vice...")
- 16:02, 28 feb 2024 193.206.116.167 discussione ha creato la pagina "Povertà dello stimolo" (Creata pagina con "L'espressione "Povertà dello stimolo" viene utilizzata per sottolineare che, nonostante il fatto che durante l'addestramento il modello possa aver visto molte abilità individuali, il numero di possibili combinazioni di queste abilità è così vasto che è improbabile che tutte siano state presenti nei dati di addestramento. Questo significa che se il modello dimostra competenza anche solo in una piccola percentuale delle possibili combinazioni, allora deve aver svilup...")
- 15:49, 28 feb 2024 Stefano discussione contributi ha creato la pagina Reasoning gap (Creata pagina con "== Reasoning Gap nel campo degli LLM == Il "Reasoning Gap" nel campo degli LLM (Legal and Legislative Modeling) si riferisce alla discrepanza o alla mancanza di coerenza nel processo di ragionamento legale o legislativo. In altre parole, si tratta di una situazione in cui esiste una lacuna o un difetto nel collegamento logico tra le premesse, i fatti e le conclusioni nelle argomentazioni legali. ==Esempi== La discrepanza può manifestarsi in diversi modi: * Mancanza di...")
- 15:45, 28 feb 2024 Stefano discussione contributi ha creato la pagina Chain of reasoning (Creata pagina con "== Chain of Reasoning nel campo degli LLM == Il "chain of reasoning" nel campo degli LLM (Legal and Legislative Modeling) è un concetto che si riferisce al processo logico attraverso il quale vengono collegati e argomentati i diversi passaggi in un ragionamento legale o legislativo. In pratica, si tratta di una catena di ragionamenti che collega le premesse legali o legislative alle conclusioni desiderate. Il "chain of reasoning" è fondamentale per la coerenza e la so...")
- 15:42, 28 feb 2024 Stefano discussione contributi ha creato la pagina Step by step reasoning (Creata pagina con "== Ragionamento Step by Step nei Linguaggi del Livello Morfologico (LLM) == Il ragionamento step by step nei Linguaggi del Livello Morfologico (LLM) è un processo essenziale per comprendere la formazione e l'interpretazione delle parole all'interno della morfologia linguistica. Questo approccio analitico scompone ogni fase del processo morfologico in passaggi distinti al fine di esaminare dettagliatamente come le unità linguistiche si combinano e si influenzano a vice...")
- 15:41, 28 feb 2024 193.206.116.167 discussione ha creato la pagina A Theory for Emergence of Complex Skills in Language Models (2023) (Creata pagina con "Il paper, pubblicato il 29 luglio 2023, spiega che quando i modelli linguistici diventano più grandi e vengono addestrati su insiemi di dati più grandi, mostrano nuovi comportamenti interessanti. Questo è ciò che intendiamo per '''“Emergenza”'''. Due forme avanzate di emergenza sono l'apprendimento in contesto e l'apprendimento zero-shot. In queste situazioni, il modello può capire le istruzioni di un compito fornite come parte del testo di input e risolvere il...")
- 15:35, 28 feb 2024 Alesaccoia discussione contributi ha creato la pagina Function Calling (Creata pagina con "Il "function calling" nei modelli di linguaggio, come GPT-4 o versioni avanzate, si riferisce alla capacità del modello di interagire con funzioni esterne o integrate, eseguendo azioni specifiche basate su input testuali. Questa funzionalità permette al modello di eseguire compiti che vanno oltre la semplice generazione di testo, come effettuare calcoli, generare immagini, eseguire ricerche su internet, o interagire con altri strumenti software, il tutto attraverso l'i...")
- 15:30, 28 feb 2024 Stefano discussione contributi ha creato la pagina WinoGrande (Creata pagina con "== Intro == Winogrande mira a valutare la capacità dei modelli di IA di applicare il senso comune per risolvere enigmi e compiti di comprensione del testo che richiedono più di una semplice analisi linguistica o statistica. Rispetto a set di dati simili come WSC, Winogrande offre una collezione di problemi più ampia e variata, riducendo la possibilità di sfruttare scorciatoie o bias nei dati per risolvere i problemi. Ogni domanda è formulata attorno a una frase o a...")
- 15:22, 28 feb 2024 193.206.116.167 discussione ha creato la pagina Creazione e Valutazione di Benchmark IA: Processo e Principi (Creata pagina con "La creazione di domande per benchmark come ARC (AI2 Reasoning Challenge) e la verifica delle risposte da parte dei modelli di intelligenza artificiale (IA) richiedono un processo meticoloso che coinvolge esperti del settore. Di seguito è descritto il processo generale, adattato per un formato adatto a Wikimedia. ==Formulazione delle Domande== '''Definizione degli Obiettivi''': Gli obiettivi specifici del benchmark vengono stabiliti per guidare la creazione delle doman...")
- 14:43, 28 feb 2024 193.206.116.167 discussione ha creato la pagina Adversarial Filtering (AF) (Creata pagina con "L'Adversarial Filtering (AF) è una tecnica utilizzata per selezionare o generare dati per set di addestramento e test in modo che sfidino specificamente le capacità dei modelli di intelligenza artificiale (IA). Questo metodo è particolarmente utile per creare compiti di benchmark che testano capacità complesse come il ragionamento di senso comune, la comprensione del linguaggio naturale, e altre forme di intelligenza cognitiva che i modelli di IA trovano difficili....")
- 13:42, 28 feb 2024 L'utenza Stefano discussione contributi è stata creata
- 13:38, 28 feb 2024 Alesaccoia discussione contributi ha creato la pagina Adversarial Endings (Creata pagina con "Il concetto di "adversarial endings" si riferisce a scenari in cui i modelli di linguaggio sono sfidati con input che possono indurli a generare completamenti fuorvianti o incoerenti. Questi input sono progettati per mettere alla prova la capacità del modello di comprendere il contesto e generare output accurati e coerenti. Ad esempio, consideriamo il benchmark Hellaswag, che richiede ai modelli di completare un dato contesto con una continuazione che dimostri comprens...")
- 23:06, 27 feb 2024 Alesaccoia discussione contributi ha creato la pagina Metodi di Decoding (Creata pagina con " == Links == [https://huggingface.co/blog/how-to-generate https://huggingface.co/blog/how-to-generate]")
- 23:04, 27 feb 2024 Alesaccoia discussione contributi ha creato la pagina GPT-4 (Creata pagina con " == Links == [https://arxiv.org/pdf/2303.08774v4.pdf GPT-4 Technical Report]]")
- 23:01, 27 feb 2024 Alesaccoia discussione contributi ha creato la pagina LSTM (Creata pagina con "Le LSTM sono un tipo speciale di rete neurale ricorrente (RNN) progettate per catturare dipendenze a lungo termine nelle sequenze di dati. Sono particolarmente efficaci nella modellazione di sequenze temporali, come la musica, il linguaggio naturale, o serie temporali finanziarie, grazie alla loro capacità di mantenere lo stato (memoria) per lunghi periodi.")
- 22:12, 27 feb 2024 Alesaccoia discussione contributi ha creato la pagina Automatic Stylistic Composition of Bach Chorales With Deep LSTM (2017) (Creata pagina con "== Caratteristiche == Generatore di MIDI: * basato su LSTM * polifonico * frame fissi a 1/16 * interessante la rappresentazione simbolica a 4 voci == Corpus di Training == * Corali di Bach in MusicXML * Trasposizione alla chiave C/Am * Quantizzazione a 1/16 == Implementazione Github == Funziona? == Links == * [https://bachbot.feynmanliang.com https://bachbot.feynmanliang.com] * [https://github.com/feynmanliang/bachbot https://github.com/feynmanliang/bachbot]")
- 21:24, 27 feb 2024 Alesaccoia discussione contributi ha creato la pagina DeepJ: Style-Specific Music Generation (2018) (Creata pagina con " == Link == * [https://bachbot.feynmanliang.com https://bachbot.feynmanliang.com] * [https://github.com/feynmanliang/bachbot https://github.com/feynmanliang/bachbot]")
- 16:17, 27 feb 2024 93.38.232.25 discussione ha creato la pagina Mistral (Creata pagina con "Mistral è un modello di intelligenza artificiale sviluppato da un team internazionale di ricercatori, progettato per essere efficiente ed efficace in compiti di comprensione e generazione del linguaggio naturale. Il suo modello "Large" si distingue per le sue prestazioni superiori in vari benchmark, superando altri modelli di dimensioni simili. Mistral utilizza tecniche avanzate di attenzione e pre-training per migliorare la sua capacità di comprendere e generare testo...")
- 16:11, 27 feb 2024 93.38.232.25 discussione ha creato la pagina Arc C (Creata pagina con "== Intro == Il benchmark ARC si concentra in particolare sulla capacità dei modelli di AI di rispondere a domande di scienza di livello scolastico, coprendo una vasta gamma di argomenti e richiedendo una comprensione approfondita e il ragionamento oltre la mera capacità di cercare informazioni o utilizzare conoscenze superficiali. == Esempi == George wants to warm his hands quickly by rubbing them. Which skin surface will produce the most heat? { "text": [ "dry palms...")
- 16:09, 27 feb 2024 93.38.232.25 discussione ha creato la pagina Winogrande (Creata pagina con "== Intro == Si basa sul concetto dei puzzle di Winograd ma è stato progettato per essere più ampio e impegnativo. I puzzle di Winograd sono brevi frasi che contengono un pronome ambiguo, la cui interpretazione corretta dipende dalla comprensione del contesto e da sottili indizi linguistici. == Esempi == John moved the couch from the garage to the backyard to create space. The _ is small. Option 1: garage Option 2: backyard Risposta: 1 The doctor diagnosed Justin...")
- 16:07, 27 feb 2024 93.38.232.25 discussione ha creato la pagina DROP (Creata pagina con " == Intro == Il benchmark DROP (acronimo di "Discrete Reasoning Over the content of Paragraphs") è un insieme di dati creato per valutare le capacità di comprensione del testo e ragionamento di sistemi di intelligenza artificiale. Questo benchmark è particolarmente focalizzato sulla capacità di manipolare informazioni numeriche e di effettuare inferenze basate su testi. DROP si distingue per la sua enfasi sulle domande che richiedono una comprensione approfondita de...")
- 15:22, 27 feb 2024 Alesaccoia discussione contributi ha creato la pagina HellaSwag (Creata pagina con "== Intro == In cosa consiste? Cosa dimostra? == Esempi == [header] How to overcome communication apprehension [title] Pinpoint your fears. [step] Before you can learn to overcome your communication apprehension, you must figure out exactly what it is that is scary or nerve-wrecking. Construct an anxiety hierarchy to help you better understand your fears. Possibilità ['Consider several factors before making a list of potential fears related to communicating inaccurat...")
- 15:13, 27 feb 2024 Alesaccoia discussione contributi ha creato la pagina MMLU (Creata pagina con "[https://arxiv.org/pdf/2009.03300.pdf Massive Multitask Language Understanding] Dataset per il testing dell'accuratezza delle informazioni presenti all'interno del modello di linguaggio. E un test a risposta multipla. Esempi di domande: One of the reasons that the government discourages and regulates monopolies is that (A) producer surplus is lost and consumer surplus is gained. (B) monopoly prices ensure productive efficiency but cost society allocative efficiency. (...")
- 06:37, 25 feb 2024 Alesaccoia discussione contributi ha creato la pagina Quantizzazione (Creata pagina con "Dal 2023, si è avvertita una richiesta crescente di poter eseguire localmente inferenza e fine-tuning dei modelli di linguaggio open source, con risorse computazionali minori. La quantizzazione riduce il numero di bit utilizzati per rappresentare i pesi di un modello, riducendo così la sua dimensione e la sua occupazione di Video RAM, e un aumento della sua velocità di inferenza. Il risultato è anche un aumento della perplexity del modello, ovvero della...")
- 09:30, 23 feb 2024 Alesaccoia discussione contributi ha creato la pagina IKEVA-HAI (IULM AI Lab) (Creata pagina con "= Iterative Knowledge Enhancement in Virtual Assistants through Human-AI Interaction (IKEVA-HAI) = == Descrizione del Progetto == Il progetto '''Iterative Knowledge Enhancement in Virtual Assistants through Human-AI Interaction''' (IKEVA-HAI) mira a sviluppare assistenti virtuali altamente specializzati attraverso un processo iterativo di interazione tra operatori umani e intelligenza artificiale. Partendo da una base di conoscenza inizialmente vuota o limitata, l'AI è...")
- 08:57, 23 feb 2024 Alesaccoia discussione contributi ha spostato la pagina Aiuto:Guida ai Namespaces a Aiuto:Categorie di Wiki AI Lab
- 08:54, 23 feb 2024 Alesaccoia discussione contributi ha creato la pagina Categoria:Papers (Creata pagina con "Spiegazione di vari paper accademici relativi all'Intelligenza Artificiale")
- 08:53, 23 feb 2024 Alesaccoia discussione contributi ha spostato la pagina Paper:Language Models are Few-Shot Learners (2020) a Language Models are Few-Shot Learners (2020) tramite redirect
- 08:53, 23 feb 2024 Alesaccoia discussione contributi ha cancellato il redirect Language Models are Few-Shot Learners (2020) con la sovrascrittura (Cancellata per rendere possibile lo spostamento da "Paper:Language Models are Few-Shot Learners (2020)")
- 07:54, 23 feb 2024 Alesaccoia discussione contributi ha spostato la pagina Few-shot learning a Concetti:Few-shot learning
- 07:53, 23 feb 2024 Alesaccoia discussione contributi ha spostato la pagina Language Models are Few-Shot Learners (2020) a Paper:Language Models are Few-Shot Learners (2020)
- 07:52, 23 feb 2024 Alesaccoia discussione contributi ha creato la pagina Aiuto:Guida ai Namespaces (Creata pagina con "{| class="wikitable" ! Namespace ! Descrizione |- | Aiuto | Pagine di aiuto su come consultare e contribuire alla Wiki AI Lab |- | Paper | Pagine dedicate ai singoli paper di ricerca, con sommario, metodi, conclusioni, e discussioni. |- | Modelli | Dettagli su vari modelli di intelligenza artificiale, inclusi architettura, prestazioni, e comparazioni. |- | Tool | Informazioni su strumenti e piattaforme usate nella ricerca e nello sviluppo IA. |- | Librerie | Pagine su li...")
- 18:12, 21 feb 2024 Alesaccoia discussione contributi ha creato la pagina File:In context learning.png (I tipi di in context learning dal paper "Language Models are Few-Shot Learners")
- 18:12, 21 feb 2024 Alesaccoia discussione contributi ha caricato File:In context learning.png (I tipi di in context learning dal paper "Language Models are Few-Shot Learners")
- 18:11, 21 feb 2024 Alesaccoia discussione contributi ha cancellato la pagina File:Screenshot 2024-02-21 at 7.09.45 PM.png (il contenuto era: '', e l'unico contributore era "Alesaccoia" (msg))
- 18:11, 21 feb 2024 Alesaccoia discussione contributi ha creato la pagina File:Screenshot 2024-02-21 at 7.09.45 PM.png
- 18:11, 21 feb 2024 Alesaccoia discussione contributi ha caricato File:Screenshot 2024-02-21 at 7.09.45 PM.png
- 17:36, 21 feb 2024 Alesaccoia discussione contributi ha creato la pagina Few-shot learning (Creata pagina con "L'apprendimento few-shot, nell'ambito dei modelli di deep learning, indica, alternativamente: - dsadas - dasdasddsa")
- 17:32, 21 feb 2024 Alesaccoia discussione contributi ha creato la pagina OpenAI (Creata pagina con "OpenAI è un'organizzazione di ricerca sull'intelligenza artificiale (IA) con l'obiettivo di promuovere e sviluppare intelligenza artificiale amichevole in modo da beneficiare l'umanità nel suo complesso. Fondata a fine 2015 da Elon Musk, Sam Altman e altri, si è distinta per i suoi significativi contributi nel campo dell'IA. === Storia === OpenAI è stata fondata con l'intento di guidare lo sviluppo dell'IA in direzioni che possano avere un impatto positivo sulla soc...")
- 17:30, 21 feb 2024 Alesaccoia discussione contributi ha creato la pagina Language Models are Few-Shot Learners (2020) (Creata pagina con "Il paper, pubblicato il 22 luglio 2020 da OpenAI, discute delle capacità di apprendimento few-shot learning dei modelli di linguaggio, in particolare di GPT-3, modello autoregressivo da 175 miliardi di parametri. L'informazione più importante da questo punto di vista è il posizionamento del modello GPT-3 all'apice dell'evoluzione dei modelli di linguaggio per i vari downstream task. Rispetto al trend che operava un fine-tuning")
- 08:48, 21 feb 2024 L'utenza Michela discussione contributi è stata creata
- 08:48, 21 feb 2024 L'utenza Anita B discussione contributi è stata creata
- 08:47, 21 feb 2024 L'utenza Sara Maserati discussione contributi è stata creata
- 08:47, 21 feb 2024 L'utenza Leo Lin discussione contributi è stata creata
- 08:46, 21 feb 2024 L'utenza Ilaria Maserati discussione contributi è stata creata
- 08:38, 21 feb 2024 L'utenza Lucia Terenzi discussione contributi è stata creata
- 20:20, 20 feb 2024 MediaWiki default discussione contributi ha creato la pagina Pagina principale