Tutti i registri pubblici
Presentazione unificata di tutti i registri di Wiki AI. È possibile restringere i criteri di ricerca selezionando il tipo di registro, l'utente che ha eseguito l'azione, e/o la pagina interessata (entrambi i campi sono sensibili al maiuscolo/minuscolo).
- 11:56, 3 mar 2024 Alesaccoia discussione contributi ha creato la pagina Discussione:Recurrent Neural Network (RNN) (Creata pagina con "in OK Come si fa, piu che le implementazioni, penso sia importante fare un esempio, in u da cui si possa desumere cosa implicano i vari parametri, sequence length ecc")
- 11:13, 3 mar 2024 Alesaccoia discussione contributi ha creato la pagina Linee Guida della Wiki AI Lab (Creata pagina con "= Scrittura di contenuti = * I contenuti non devono essere generati con ChatGPT o altri modelli di linguaggio: ** è immediatamente visibile la scrittura attraverso questi modelli che scrivono spesso "sfida significativa", frasi troppo lunghe, costruite in stile troppo divulgativo")
- 11:03, 3 mar 2024 Alesaccoia discussione contributi ha creato la pagina PaLM (Creata pagina con "Inizialmente rilasciato nell'Aprile 2022, Palm 2 viene rilasciato nel Maggio 2023 == Links == [https://ai.google/discover/palm2/ Pagina Ufficiale, Palm 2] [https://ai.google/static/documents/palm2techreport.pdf Technical Report, Palm 2]")
- 10:49, 3 mar 2024 Alesaccoia discussione contributi ha spostato la pagina Model Garden a Google Model Garden
- 10:40, 3 mar 2024 Alesaccoia discussione contributi ha creato la pagina Model Garden (Creata pagina con "Parte di Vertex AI, è un ambiente per testare i maggiori LLM sia open source che proprietari, come Gemma, utilizzando supporto dei processi MLOps e su Google Cloud.")
- 10:24, 3 mar 2024 Alesaccoia discussione contributi ha spostato la pagina LLaMA a Llama (Titolo errato)
- 10:11, 3 mar 2024 Alesaccoia discussione contributi ha creato la pagina LLaMA (Creata pagina con "Modello Open Source rilasciato da Meta nel Febbraio 2023. La prima versione contava 7, 13, 33 e 65 B di parametri, === Links === * [https://arxiv.org/abs/2302.13971 LLama 1 (27 Feb 2023)] * [https://arxiv.org/abs/2302.13971 LLama 2]")
- 10:03, 3 mar 2024 Alesaccoia discussione contributi ha spostato la pagina Pytorch a PyTorch (Titolo errato)
- 09:19, 3 mar 2024 Alesaccoia discussione contributi ha creato la pagina Scaling Laws (Creata pagina con "Proposte da Hoffman et al nel 2022 === Links === [https://arxiv.org/abs/2203.15556 https://arxiv.org/abs/2203.15556]")
- 18:23, 1 mar 2024 Alesaccoia discussione contributi ha creato la pagina MS COCO (Creata pagina con " 300px")
- 18:23, 1 mar 2024 Alesaccoia discussione contributi ha creato la pagina File:Coco-examples.jpg
- 18:23, 1 mar 2024 Alesaccoia discussione contributi ha caricato File:Coco-examples.jpg
- 11:13, 1 mar 2024 Alesaccoia discussione contributi ha creato la pagina Alpaca (Creata pagina con "Questo modello di Stanford si distingue per essere stato perfezionato a partire dal modello LLaMA 7B di Meta, attraverso l'addestramento su 52.000 Instruction-following Demonstrations. In una valutazione preliminare, Alpaca ha mostrato comportamenti qualitativamente simili a quelli di text-davinci-003 di OpenAI, nonostante le sue dimensioni sorprendentemente ridotte e la facilità nonché l'economicità di riproduzione (meno di 600 dollari). Alpaca, è arricchito...")
- 09:35, 1 mar 2024 Alesaccoia discussione contributi ha creato la pagina UCF101 - Action Recognition Data Set (Creata pagina con "== Introduzione == UCF101 è un dataset di riconoscimento delle azioni, che comprende video di azioni realistiche raccolti da YouTube, suddivisi in 101 categorie di azioni. Questo dataset è l'estensione del dataset UCF50, che includeva 50 categorie di azioni. Con i suoi 13320 video divisi in 101 categorie, UCF101 offre la più ampia varietà in termini di azioni, presentando notevoli variazioni in termini di movimento della telecamera, aspetto e posa degli oggetti, scal...")
- 09:30, 1 mar 2024 Alesaccoia discussione contributi ha creato la pagina File:UCF101.jpg
- 09:30, 1 mar 2024 Alesaccoia discussione contributi ha caricato File:UCF101.jpg
- 09:24, 1 mar 2024 Alesaccoia discussione contributi ha creato la pagina File:HMDB snapshot2.png
- 09:24, 1 mar 2024 Alesaccoia discussione contributi ha caricato File:HMDB snapshot2.png
- 09:24, 1 mar 2024 Alesaccoia discussione contributi ha creato la pagina File:HMDB snapshot1.png
- 09:24, 1 mar 2024 Alesaccoia discussione contributi ha caricato File:HMDB snapshot1.png
- 09:24, 1 mar 2024 Alesaccoia discussione contributi ha creato la pagina HMDB: a large human motion database (Creata pagina con " * Dimensione: 2 Gb * Numero di clip: 7000 * Classi: 51 === Links === [https://serre-lab.clps.brown.edu/resource/hmdb-a-large-human-motion-database/#overview https://serre-lab.clps.brown.edu/resource/hmdb-a-large-human-motion-database/#overview]")
- 08:18, 29 feb 2024 Alesaccoia discussione contributi ha creato la pagina Discussione:Step by Step (Generata con GPT)
- 22:19, 28 feb 2024 Alesaccoia discussione contributi ha creato la pagina Pytorch (Creata pagina con "PyTorch è una libreria open source di machine learning basata su Torch, ampiamente utilizzata per applicazioni come il deep learning e l'analisi computazionale. Offre due caratteristiche principali: la prima è l'implementazione dei vettori di numpy come "tensori" su GPU per accelerare i calcoli, e la seconda è un algoritmo di differenziazione automatica (autograd) per la costruzione e il training di reti neurali. = Flusso di Esecuzione di un Programma PyTorch = PyT...")
- 19:54, 28 feb 2024 Alesaccoia discussione contributi ha creato la pagina Gorilla OpenFunctions (Creata pagina con "Modello ottimizzato per il function calling == Links == [https://gorilla.cs.berkeley.edu/blogs/4_open_functions.html https://gorilla.cs.berkeley.edu/blogs/4_open_functions.html] [https://huggingface.co/gorilla-llm/gorilla-openfunctions-v2 https://huggingface.co/gorilla-llm/gorilla-openfunctions-v2]")
- 15:35, 28 feb 2024 Alesaccoia discussione contributi ha creato la pagina Function Calling (Creata pagina con "Il "function calling" nei modelli di linguaggio, come GPT-4 o versioni avanzate, si riferisce alla capacità del modello di interagire con funzioni esterne o integrate, eseguendo azioni specifiche basate su input testuali. Questa funzionalità permette al modello di eseguire compiti che vanno oltre la semplice generazione di testo, come effettuare calcoli, generare immagini, eseguire ricerche su internet, o interagire con altri strumenti software, il tutto attraverso l'i...")
- 13:38, 28 feb 2024 Alesaccoia discussione contributi ha creato la pagina Adversarial Endings (Creata pagina con "Il concetto di "adversarial endings" si riferisce a scenari in cui i modelli di linguaggio sono sfidati con input che possono indurli a generare completamenti fuorvianti o incoerenti. Questi input sono progettati per mettere alla prova la capacità del modello di comprendere il contesto e generare output accurati e coerenti. Ad esempio, consideriamo il benchmark Hellaswag, che richiede ai modelli di completare un dato contesto con una continuazione che dimostri comprens...")
- 23:06, 27 feb 2024 Alesaccoia discussione contributi ha creato la pagina Metodi di Decoding (Creata pagina con " == Links == [https://huggingface.co/blog/how-to-generate https://huggingface.co/blog/how-to-generate]")
- 23:04, 27 feb 2024 Alesaccoia discussione contributi ha creato la pagina GPT-4 (Creata pagina con " == Links == [https://arxiv.org/pdf/2303.08774v4.pdf GPT-4 Technical Report]]")
- 23:01, 27 feb 2024 Alesaccoia discussione contributi ha creato la pagina LSTM (Creata pagina con "Le LSTM sono un tipo speciale di rete neurale ricorrente (RNN) progettate per catturare dipendenze a lungo termine nelle sequenze di dati. Sono particolarmente efficaci nella modellazione di sequenze temporali, come la musica, il linguaggio naturale, o serie temporali finanziarie, grazie alla loro capacità di mantenere lo stato (memoria) per lunghi periodi.")
- 22:12, 27 feb 2024 Alesaccoia discussione contributi ha creato la pagina Automatic Stylistic Composition of Bach Chorales With Deep LSTM (2017) (Creata pagina con "== Caratteristiche == Generatore di MIDI: * basato su LSTM * polifonico * frame fissi a 1/16 * interessante la rappresentazione simbolica a 4 voci == Corpus di Training == * Corali di Bach in MusicXML * Trasposizione alla chiave C/Am * Quantizzazione a 1/16 == Implementazione Github == Funziona? == Links == * [https://bachbot.feynmanliang.com https://bachbot.feynmanliang.com] * [https://github.com/feynmanliang/bachbot https://github.com/feynmanliang/bachbot]")
- 21:24, 27 feb 2024 Alesaccoia discussione contributi ha creato la pagina DeepJ: Style-Specific Music Generation (2018) (Creata pagina con " == Link == * [https://bachbot.feynmanliang.com https://bachbot.feynmanliang.com] * [https://github.com/feynmanliang/bachbot https://github.com/feynmanliang/bachbot]")
- 15:22, 27 feb 2024 Alesaccoia discussione contributi ha creato la pagina HellaSwag (Creata pagina con "== Intro == In cosa consiste? Cosa dimostra? == Esempi == [header] How to overcome communication apprehension [title] Pinpoint your fears. [step] Before you can learn to overcome your communication apprehension, you must figure out exactly what it is that is scary or nerve-wrecking. Construct an anxiety hierarchy to help you better understand your fears. Possibilità ['Consider several factors before making a list of potential fears related to communicating inaccurat...")
- 15:13, 27 feb 2024 Alesaccoia discussione contributi ha creato la pagina MMLU (Creata pagina con "[https://arxiv.org/pdf/2009.03300.pdf Massive Multitask Language Understanding] Dataset per il testing dell'accuratezza delle informazioni presenti all'interno del modello di linguaggio. E un test a risposta multipla. Esempi di domande: One of the reasons that the government discourages and regulates monopolies is that (A) producer surplus is lost and consumer surplus is gained. (B) monopoly prices ensure productive efficiency but cost society allocative efficiency. (...")
- 06:37, 25 feb 2024 Alesaccoia discussione contributi ha creato la pagina Quantizzazione (Creata pagina con "Dal 2023, si è avvertita una richiesta crescente di poter eseguire localmente inferenza e fine-tuning dei modelli di linguaggio open source, con risorse computazionali minori. La quantizzazione riduce il numero di bit utilizzati per rappresentare i pesi di un modello, riducendo così la sua dimensione e la sua occupazione di Video RAM, e un aumento della sua velocità di inferenza. Il risultato è anche un aumento della perplexity del modello, ovvero della...")
- 09:30, 23 feb 2024 Alesaccoia discussione contributi ha creato la pagina IKEVA-HAI (IULM AI Lab) (Creata pagina con "= Iterative Knowledge Enhancement in Virtual Assistants through Human-AI Interaction (IKEVA-HAI) = == Descrizione del Progetto == Il progetto '''Iterative Knowledge Enhancement in Virtual Assistants through Human-AI Interaction''' (IKEVA-HAI) mira a sviluppare assistenti virtuali altamente specializzati attraverso un processo iterativo di interazione tra operatori umani e intelligenza artificiale. Partendo da una base di conoscenza inizialmente vuota o limitata, l'AI è...")
- 08:57, 23 feb 2024 Alesaccoia discussione contributi ha spostato la pagina Aiuto:Guida ai Namespaces a Aiuto:Categorie di Wiki AI Lab
- 08:54, 23 feb 2024 Alesaccoia discussione contributi ha creato la pagina Categoria:Papers (Creata pagina con "Spiegazione di vari paper accademici relativi all'Intelligenza Artificiale")
- 08:53, 23 feb 2024 Alesaccoia discussione contributi ha spostato la pagina Paper:Language Models are Few-Shot Learners (2020) a Language Models are Few-Shot Learners (2020) tramite redirect
- 08:53, 23 feb 2024 Alesaccoia discussione contributi ha cancellato il redirect Language Models are Few-Shot Learners (2020) con la sovrascrittura (Cancellata per rendere possibile lo spostamento da "Paper:Language Models are Few-Shot Learners (2020)")
- 07:54, 23 feb 2024 Alesaccoia discussione contributi ha spostato la pagina Few-shot learning a Concetti:Few-shot learning
- 07:53, 23 feb 2024 Alesaccoia discussione contributi ha spostato la pagina Language Models are Few-Shot Learners (2020) a Paper:Language Models are Few-Shot Learners (2020)
- 07:52, 23 feb 2024 Alesaccoia discussione contributi ha creato la pagina Aiuto:Guida ai Namespaces (Creata pagina con "{| class="wikitable" ! Namespace ! Descrizione |- | Aiuto | Pagine di aiuto su come consultare e contribuire alla Wiki AI Lab |- | Paper | Pagine dedicate ai singoli paper di ricerca, con sommario, metodi, conclusioni, e discussioni. |- | Modelli | Dettagli su vari modelli di intelligenza artificiale, inclusi architettura, prestazioni, e comparazioni. |- | Tool | Informazioni su strumenti e piattaforme usate nella ricerca e nello sviluppo IA. |- | Librerie | Pagine su li...")
- 18:12, 21 feb 2024 Alesaccoia discussione contributi ha creato la pagina File:In context learning.png (I tipi di in context learning dal paper "Language Models are Few-Shot Learners")
- 18:12, 21 feb 2024 Alesaccoia discussione contributi ha caricato File:In context learning.png (I tipi di in context learning dal paper "Language Models are Few-Shot Learners")
- 18:11, 21 feb 2024 Alesaccoia discussione contributi ha cancellato la pagina File:Screenshot 2024-02-21 at 7.09.45 PM.png (il contenuto era: '', e l'unico contributore era "Alesaccoia" (msg))
- 18:11, 21 feb 2024 Alesaccoia discussione contributi ha creato la pagina File:Screenshot 2024-02-21 at 7.09.45 PM.png
- 18:11, 21 feb 2024 Alesaccoia discussione contributi ha caricato File:Screenshot 2024-02-21 at 7.09.45 PM.png
- 17:36, 21 feb 2024 Alesaccoia discussione contributi ha creato la pagina Few-shot learning (Creata pagina con "L'apprendimento few-shot, nell'ambito dei modelli di deep learning, indica, alternativamente: - dsadas - dasdasddsa")
- 17:32, 21 feb 2024 Alesaccoia discussione contributi ha creato la pagina OpenAI (Creata pagina con "OpenAI è un'organizzazione di ricerca sull'intelligenza artificiale (IA) con l'obiettivo di promuovere e sviluppare intelligenza artificiale amichevole in modo da beneficiare l'umanità nel suo complesso. Fondata a fine 2015 da Elon Musk, Sam Altman e altri, si è distinta per i suoi significativi contributi nel campo dell'IA. === Storia === OpenAI è stata fondata con l'intento di guidare lo sviluppo dell'IA in direzioni che possano avere un impatto positivo sulla soc...")
- 17:30, 21 feb 2024 Alesaccoia discussione contributi ha creato la pagina Language Models are Few-Shot Learners (2020) (Creata pagina con "Il paper, pubblicato il 22 luglio 2020 da OpenAI, discute delle capacità di apprendimento few-shot learning dei modelli di linguaggio, in particolare di GPT-3, modello autoregressivo da 175 miliardi di parametri. L'informazione più importante da questo punto di vista è il posizionamento del modello GPT-3 all'apice dell'evoluzione dei modelli di linguaggio per i vari downstream task. Rispetto al trend che operava un fine-tuning")