Pagina principale
Aiuto
- Linee Guida della Wiki AI Lab
- Guida utente: Una risorsa completa per i nuovi utenti di MediaWiki.
- Aiuto:Categorie_di_Wiki_AI_Lab: Guida alle categorie specifiche del Wiki AI Lab.
- Aiuto:Utilizzo_API: Utilizzo dell'API.
- Speciale:TutteLePagine
- Ontologia della Wiki AI
- Semantic Search
Architetture
| NomeInglese | Sigla | AnnoDiCreazione | |
|---|---|---|---|
| Autoencoder | Autoencoder | 1993 | |
| BART | Bidirectional and Auto-Regressive Transformers | BART | 29 ottobre 2019 |
| Contrastive Language-Image Pretraining (CLIP) | Contrastive Language-Image Pretraining | CLIP | 2021 |
| ControlNet | ControlNet | ControlNet | febbraio 2023 |
| Detection Transformer | Detection Transformer | DeTr | 2020 |
| Extended Long Short-Term Memory | Extended Long Short-Term Memory | xLSTM | 2024 |
| Long Short-Term Memory (LSTM) | Long Short-Term Memory | LSTM | 1997 |
| Macchine di Boltzmann Restrittive (RBM) | Restricted Boltzmann Machine | RBM | 1986 |
| MiDaS | Multi-scale Deep Stereo | MiDaS | 2019 |
| Mixture of Experts | |||
| Modello di Diffusione Latente (LDM) | Latent Diffusion Model | LDM | 2021 |
| Modello linguistico di grandi dimensioni per il linguaggio parlato | |||
| Rete Generativa Avversaria | Generative Adversarial Network | GAN | 2014 |
| Rete Neurale Artificiale (ANN) | Artificial Neural Network | ANN | 1957 |
| Rete Neurale Feed-Forward (FNN) | Feed-Forward Neural Network | FNN | 1958 |
| Rete Neurale Residua (ResNet) | Residual Neural Network | ResNet | 2015 |
| Rete Neurale Ricorrente (RNN) | Recurrent Neural Networks | RNN | 1990 |
| Reti Neurali Convoluzionali (CNN) | Convolutional Neural Networks | CNN | 1995 |
| Sequence to Sequence (seq2seq) | Sequence to Sequence Model | seq2seq | 2014 |
| Transformer (Architettura di Deep Learning) | Transformer | 2017 | |
| Vision Transformer (ViT) | Vision Transformer | ViT | 2021 |
Modelli
| Sigla | AnnoDiCreazione | VersioneCorrente | BasatoSu | |
|---|---|---|---|---|
| AlexNet | 2012 | |||
| Alpaca | Alpaca | 2023 | ||
| AlphaFold | ||||
| BERT | BERT | 2018 | ||
| Biaxial LSTM (DeepJ - musica) | Biaxial LSTM | Long Short-Term Memory (LSTM) | ||
| ConceptNet | ||||
| Contriever | ||||
| DeepDream | 18 giugno 2015 | |||
| GLoVe | GLoVe | 2014 | GLoVe v.1.2 (2015) | |
| Generative Pretrained Transformer (GPT) | GPT | 2018 | GPT-4o (2024) | |
| GoogLeNet | ||||
| Gorilla OpenFunctions | 2023 | Architettura dei Large Language Models (LLM) | ||
| InstructGPT | InstructGPT | 27 gennaio 2022 | ||
| InstructPix2Pix: Learning to Follow Image Editing Instructions | 2023 | |||
| LeNet | 1995 | LeNet-5 | ||
| Llama | LLaMA | 2021 | 3.0 | |
| Mistral | Mistral | 2023 | ||
| NETtalk | 1993 | |||
| O1 | ||||
| OpenAI o1 | ||||
| PaLM | PaLM | 2022 | PaLM 2 (2023) | |
| SPLADE | ||||
| Stable Diffusion | 2022 | SD3 (2023) | ||
| StyleGAN | StyleGAN | 2019 | StyleGAN 3 (2021) | |
| VGG16 (ConvNet) | VGG16 | 2014 | ||
| XLM-RoBERTa | XLM-RoBERTa | 2020 | ||
| Zero 1-to-3 | 2023 |
Benchmark
Un benchmark, nel contesto dell'IA, è tipicamente un test o un insieme di test progettati per valutare le prestazioni di un modello o di un algoritmo di intelligenza artificiale in compiti specifici. Questo spesso include l'uso di uno o più dataset standardizzati su cui diversi modelli possono essere addestrati e valutati, ma va oltre alla mera disponibilità di dati. Il concetto di benchmark incorpora anche metriche di valutazione specifiche, criteri e, a volte, l'ambiente software/hardware per garantire che le prestazioni possano essere confrontate equamente tra differenti approcci. Mentre un dataset può essere utilizzato come parte di un benchmark, quest'ultimo è un concetto più ampio che include non solo i dati, ma anche le procedure e le metriche per la valutazione delle prestazioni.
| Nome | Sigla | AnnoDiCreazione | |
|---|---|---|---|
| An Evaluation Dataset for Intent Classification and Out-of-Scope Prediction (CLINC150) | An Evaluation Dataset for Intent Classification and Out-of-Scope Prediction | CLINC150 | 2019 |
| BABILong | BABILong | 2024 | |
| Bilingual Evaluation Understudy (BLEU) | BiLingual Evaluation Understudy | BLEU | 2002 |
| BoolQ | Boolean Questions | BoolQ | 2019 |
| Cross-lingual Transfer Evaluation of Multilingual Encoders (XTREME) | Cross-lingual Transfer Evaluation of Multilingual Encoders | XTREME | 2020 |
| Discrete Reasoning Over Paragraphs (DROP) | DROP | DROP | 2019 |
| DocRED: A Large-Scale Document-Level Relation Extraction Dataset | A Large-Scale Document-Level Relation Extraction Dataset | DocRED | 2019 |
| GSM8K | Grade School Math 8K | GSM8K | 2022 |
| General Language Understanding Evaluation (GLUE) | General Language Understanding Evaluation | GLUE | 2018 |
| HMDB: a large human motion database | A large human motion database | HMDB | 2011 |
| HellaSwag | HellaSwag | HellaSwag | 2019 |
| HumanEval | HumanEval | 2021 | |
| ImageNet Large Scale Visual Recognition Challenge | ImageNet Large Scale Visual Recognition Challenge | ILSVRC | 2012 |
| LAION-5B | Large-scale Artificial Intelligence Open Network-5 Billion | LAION-5B | 2021 |
| LongAlign | LongAlign | 2024 | |
| MATH | MATH | 2021 | |
| MBPP | Mostly Basic Programming Problems | MBPP | 2021 |
| MMLU | Massive Multitask Language Understanding | MMLU | 2021 |
| MS COCO | Microsoft Common Objects in Context | MS COCO | 2014 |
| Microsoft Machine Reading Comprehension (MS MARCO) | |||
| Mind2Web | Mind2Web | Mind2Web | 2023 |
| NaturalQuestions | NaturalQuestions | 2019 | |
| QuAC | Question Answering in Context | QuAC | 2018 |
| SQuAD | Stanford Question Answering Dataset | SQuAD | 2018 |
| Schema di Winograd | |||
| Semantic Textual Similarity (STS) | Semantic Textual Similarity | STS | 2012 |
| UCF101 - Action Recognition Data Set | Action Recognition Data Set | UCF101 | 2013 |
| WinoGrande | WinoGrande | 2019 |
Pubblicazioni
NLP (Natural Language Processing)
- Language Models are Few-Shot Learners (2020)
- A Theory for Emergence of Complex Skills in Language Models (2023): Teorie sull'emergere di competenze complesse nei modelli di linguaggio.
- Why think step by step? Reasoning emerges from the locality of experience (2023)
- Functional Benchmarks for Robust Evaluation of Reasoning Performance, and the Reasoning Gap (29/02/2024)
Musica
MIDI
- DeepJ: Style-Specific Music Generation (2018)
- Automatic Stylistic Composition of Bach Chorales With Deep LSTM (2017)
- Harmonizing Music the Boltzmann Way (1994)
- MusicBERT: Symbolic Music Understanding with Large-Scale Pre-Training
Concetti
Matematica
Apprendimento
Esecuzione e Inferenza
- Quantizzazione: Riduzione della precisione dei numeri per accelerare l'esecuzione dei modelli.
- Metodi di Decoding: Tecniche per generare output dai modelli di linguaggio.
Benchmarking
Ragionamento negli LLM (Large Language Models)
Dataset
- Datasets for Large Language Models: A Comprehensive Survey
- DocRED: A Large-Scale Document-Level Relation Extraction Dataset
- Dataset MIDI per addestrare modelli generativi di Musica
Benchmarks
Modelli di Linguaggio
Benchmark Aggregati
Capacità di Ragionamento
- HellaSwag
- DROP
- WinoGrande - Sakaguchi et al., 2021
- Arc C
- PIQA - Bisk et al., 2020
- SIQA - Sap et al., 2019
- CommonsenseQA - Talmor et al., 2018
Conoscenza
- NaturalQuestions - Kwiatkowski et al.,2019
- TriviaQA - Joshi et al., 2017
Codice
Comprensione del Testo
- SQuAD - Rajpurkar et al., 2018
- QuAC - Choi et al., 2018
- BoolQ - Clark et al., 2019)
- LongAlign - Yushi Bai et al., 2024
- BABILong - Yuri Kuratov et al., 2024
Matematica
Embeddings
- MIRACL
- MTEB