Pagina principale: differenze tra le versioni
Nessun oggetto della modifica |
Nessun oggetto della modifica |
||
| Riga 10: | Riga 10: | ||
== Architetture == | == Architetture == | ||
{{#ask: [[Category:Architettura]] | ? NomeInglese | ?Sigla | ?AnnoDiCreazione}} | {{#ask: [[Category:Architettura]] | ?NomeInglese | ?Sigla | ?AnnoDiCreazione}} | ||
== Modelli == | == Modelli == | ||
Versione delle 10:07, 10 apr 2024
Aiuto
- Linee Guida della Wiki AI Lab
- Guida utente: Una risorsa completa per i nuovi utenti di MediaWiki.
- Aiuto:Categorie_di_Wiki_AI_Lab: Guida alle categorie specifiche del Wiki AI Lab.
- Aiuto:Utilizzo_API: Utilizzo dell'API.
- Speciale:TutteLePagine
- Ontologia della Wiki AI
- Semantic Search
Architetture
| NomeInglese | Sigla | AnnoDiCreazione | |
|---|---|---|---|
| Autoencoder | Autoencoder | 1993 | |
| BART | Bidirectional and Auto-Regressive Transformers | BART | 29 ottobre 2019 |
| Contrastive Language-Image Pretraining (CLIP) | Contrastive Language-Image Pretraining | CLIP | 2021 |
| ControlNet | ControlNet | ControlNet | febbraio 2023 |
| Detection Transformer | Detection Transformer | DeTr | 2020 |
| Extended Long Short-Term Memory | Extended Long Short-Term Memory | xLSTM | 2024 |
| Long Short-Term Memory (LSTM) | Long Short-Term Memory | LSTM | 1997 |
| Macchine di Boltzmann Restrittive (RBM) | Restricted Boltzmann Machine | RBM | 1986 |
| MiDaS | Multi-scale Deep Stereo | MiDaS | 2019 |
| Mixture of Experts | |||
| Modello di Diffusione Latente (LDM) | Latent Diffusion Model | LDM | 2021 |
| Modello linguistico di grandi dimensioni per il linguaggio parlato | |||
| Rete Generativa Avversaria | Generative Adversarial Network | GAN | 2014 |
| Rete Neurale Artificiale (ANN) | Artificial Neural Network | ANN | 1957 |
| Rete Neurale Feed-Forward (FNN) | Feed-Forward Neural Network | FNN | 1958 |
| Rete Neurale Residua (ResNet) | Residual Neural Network | ResNet | 2015 |
| Rete Neurale Ricorrente (RNN) | Recurrent Neural Networks | RNN | 1990 |
| Reti Neurali Convoluzionali (CNN) | Convolutional Neural Networks | CNN | 1995 |
| Sequence to Sequence (seq2seq) | Sequence to Sequence Model | seq2seq | 2014 |
| Transformer (Architettura di Deep Learning) | Transformer | 2017 | |
| Vision Transformer (ViT) | Vision Transformer | ViT | 2021 |
Modelli
| Sigla | AnnoDiCreazione | VersioneCorrente | Topic | |
|---|---|---|---|---|
| AlexNet | 2012 | |||
| Alpaca | Alpaca | 2023 | ||
| AlphaFold | ||||
| BERT | BERT | 2018 | ||
| Biaxial LSTM (DeepJ - musica) | Biaxial LSTM | Musica e Audio | ||
| ConceptNet | ||||
| Contriever | ||||
| DeepDream | 18 giugno 2015 | |||
| GLoVe | GLoVe | 2014 | GLoVe v.1.2 (2015) | |
| Generative Pretrained Transformer (GPT) | GPT | 2018 | GPT-4o (2024) | |
| GoogLeNet | ||||
| Gorilla OpenFunctions | 2023 | |||
| InstructGPT | InstructGPT | 27 gennaio 2022 | ||
| InstructPix2Pix: Learning to Follow Image Editing Instructions | 2023 | |||
| LeNet | 1995 | LeNet-5 | ||
| Llama | LLaMA | 2021 | 3.0 | |
| Mistral | Mistral | 2023 | ||
| NETtalk | 1993 | |||
| O1 | ||||
| OpenAI o1 | ||||
| PaLM | PaLM | 2022 | PaLM 2 (2023) | |
| SPLADE | ||||
| Stable Diffusion | 2022 | SD3 (2023) | ||
| StyleGAN | StyleGAN | 2019 | StyleGAN 3 (2021) | |
| VGG16 (ConvNet) | VGG16 | 2014 | ||
| XLM-RoBERTa | XLM-RoBERTa | 2020 | ||
| Zero 1-to-3 | 2023 |
Function Calling
Generazione Immagini
- Dall-e: Modello di OpenAI per la creazione di immagini.
- Midjourney: Principale competitor di Dall-e nella generazione di immagini
- Stable Diffusion: Generatore di immagini sviluppato da Stability AI
- Zero 1-to-3: Generazione immagini 3D da 1D
Generazione Video
- Sora: Modello OpenAI per la creazione di contenuti video.
Generazione MIDI
- Magenta: Progetto di Google che mira a utilizzare l'apprendimento automatico per creare arte e musica.
Generazione Audio
Framework
| Nome | Descrizione |
|---|---|
| Magenta (Google) | Progetto di ricerca di Google su arte e musica tramite IA |
| IKEVA-HAI (IULM AI Lab) | |
| RecurrentGPT | Modello avanzato di LLM che integra le capacità di RNN e LSTM |
| Chain of Density Prompting | Tecnica che crea riepiloghi altamente condensati ma ricchi di informazioni da testi di lunga durata |
Paper
Categoria paper non trovata
NLP (Natural Language Processing)
- Language Models are Few-Shot Learners (2020)
- A Theory for Emergence of Complex Skills in Language Models (2023): Teorie sull'emergere di competenze complesse nei modelli di linguaggio.
- Why think step by step? Reasoning emerges from the locality of experience (2023)
- Functional Benchmarks for Robust Evaluation of Reasoning Performance, and the Reasoning Gap (29/02/2024)
Musica
MIDI
- DeepJ: Style-Specific Music Generation (2018)
- Automatic Stylistic Composition of Bach Chorales With Deep LSTM (2017)
- Harmonizing Music the Boltzmann Way (1994)
- MusicBERT: Symbolic Music Understanding with Large-Scale Pre-Training
Concetti
Matematica
Apprendimento
Esecuzione e Inferenza
- Quantizzazione: Riduzione della precisione dei numeri per accelerare l'esecuzione dei modelli.
- Metodi di Decoding: Tecniche per generare output dai modelli di linguaggio.
Benchmarking
Ragionamento negli LLM (Large Language Models)
Dataset
- Datasets for Large Language Models: A Comprehensive Survey
- DocRED: A Large-Scale Document-Level Relation Extraction Dataset
- Dataset MIDI per addestrare modelli generativi di Musica
Benchmarks
Modelli di Linguaggio
Benchmark Aggregati
Capacità di Ragionamento
- HellaSwag
- DROP
- WinoGrande - Sakaguchi et al., 2021
- Arc C
- PIQA - Bisk et al., 2020
- SIQA - Sap et al., 2019
- CommonsenseQA - Talmor et al., 2018
Conoscenza
- NaturalQuestions - Kwiatkowski et al.,2019
- TriviaQA - Joshi et al., 2017
Codice
Comprensione del Testo
- SQuAD - Rajpurkar et al., 2018
- QuAC - Choi et al., 2018
- BoolQ - Clark et al., 2019)
- LongAlign - Yushi Bai et al., 2024
- BABILong - Yuri Kuratov et al., 2024
Matematica
Embeddings
- MIRACL
- MTEB