Pagina principale

"I want to understand the big questions, the really big ones that you normally go into philosophy or physics if you’re interested in. I thought building AI would be the fastest route to answer some of those questions" - Demis Hassabis
Benvenuti nella Wiki AI, dove i concetti complessi diventano accessibili in una wiki semantica e basata su di un ontologia strutturata.
Aiuto
- Guida utente: Una risorsa completa per i nuovi utenti di MediaWiki.
- Aiuto:Categorie_di_Wiki_AI_Lab: Guida alle categorie specifiche del Wiki AI Lab.
- Aiuto:Utilizzo_API: Utilizzo dell'API.
- Speciale:TutteLePagine
- Speciale:PagineSpeciali
- Ontologia della Wiki
- Semantic Search
- Contatti
Introduzione all'Intelligenza Artificiale Moderna
Appunti per la parte di Intelligenza Artificiale del corso IULM - "Modelli decisionali per il Marketing Data-Driven" - Laurea Specialistica in Intelligenza Artificiale, Impresa e Società - prof. Alessandro Saccoia - A.A. 2024/25.
| Capitolo | Titolo |
|---|---|
| 1 | GPT e la Nuova Generazione di Modelli AI |
| 2 | Downstream Tasks, Addestramento e Capacità Emergenti dei Modelli di Linguaggio di Grandi Dimensioni |
| 3 | Retrieval, Embeddings, RAG |
| 4 | Output Strutturato, Function Calling e Agenti |
| 5 | RLHF |
| 6 | Red Teaming |
| 7 | Neural Computer Vision |
Architetture
Le Architetture sono configurazioni strutturali, schemi e metodi utilizzati per costruire modelli di intelligenza artificiale.
| NomeInglese | Sigla | AnnoDiCreazione | |
|---|---|---|---|
| Autoencoder | Autoencoder | 1993 | |
| BART | Bidirectional and Auto-Regressive Transformers | BART | 29 ottobre 2019 |
| Contrastive Language-Image Pretraining (CLIP) | Contrastive Language-Image Pretraining | CLIP | 2021 |
| ControlNet | ControlNet | ControlNet | febbraio 2023 |
| Detection Transformer | Detection Transformer | DeTr | 2020 |
| Extended Long Short-Term Memory | Extended Long Short-Term Memory | xLSTM | 2024 |
| Long Short-Term Memory (LSTM) | Long Short-Term Memory | LSTM | 1997 |
| Macchine di Boltzmann Restrittive (RBM) | Restricted Boltzmann Machine | RBM | 1986 |
| MiDaS | Multi-scale Deep Stereo | MiDaS | 2019 |
| Mixture of Experts | |||
| Modello di Diffusione Latente (LDM) | Latent Diffusion Model | LDM | 2021 |
| Modello linguistico di grandi dimensioni per il linguaggio parlato | |||
| Rete Generativa Avversaria | Generative Adversarial Network | GAN | 2014 |
| Rete Neurale Artificiale (ANN) | Artificial Neural Network | ANN | 1957 |
| Rete Neurale Feed-Forward (FNN) | Feed-Forward Neural Network | FNN | 1958 |
| Rete Neurale Residua (ResNet) | Residual Neural Network | ResNet | 2015 |
| Rete Neurale Ricorrente (RNN) | Recurrent Neural Networks | RNN | 1990 |
| Reti Neurali Convoluzionali (CNN) | Convolutional Neural Networks | CNN | 1995 |
| Sequence to Sequence (seq2seq) | Sequence to Sequence Model | seq2seq | 2014 |
| Transformer (Architettura di Deep Learning) | Transformer | 2017 | |
| Vision Transformer (ViT) | Vision Transformer | ViT | 2021 |
Modelli
I Modelli sono implementazioni specifiche delle Architetture di IntelligenzaAartificiale, proprietarie o open source.
| Sigla | AnnoDiCreazione | VersioneCorrente | |
|---|---|---|---|
| AlexNet | 2012 | ||
| Alpaca | Alpaca | 2023 | |
| AlphaFold | |||
| BERT | BERT | 2018 | |
| Biaxial LSTM (DeepJ - musica) | Biaxial LSTM | ||
| ConceptNet | |||
| Contriever | |||
| DeepDream | 18 giugno 2015 | ||
| GLoVe | GLoVe | 2014 | GLoVe v.1.2 (2015) |
| Generative Pretrained Transformer (GPT) | GPT | 2018 | GPT-4o (2024) |
| GoogLeNet | |||
| Gorilla OpenFunctions | 2023 | ||
| InstructGPT | InstructGPT | 27 gennaio 2022 | |
| InstructPix2Pix: Learning to Follow Image Editing Instructions | 2023 | ||
| LeNet | 1995 | LeNet-5 | |
| Llama | LLaMA | 2021 | 3.0 |
| Mistral | Mistral | 2023 | |
| NETtalk | 1993 | ||
| O1 | |||
| OpenAI o1 | |||
| PaLM | PaLM | 2022 | PaLM 2 (2023) |
| SPLADE | |||
| Stable Diffusion | 2022 | SD3 (2023) | |
| StyleGAN | StyleGAN | 2019 | StyleGAN 3 (2021) |
| VGG16 (ConvNet) | VGG16 | 2014 | |
| XLM-RoBERTa | XLM-RoBERTa | 2020 | |
| Zero 1-to-3 | 2023 |
Benchmark
Un benchmark, nel contesto dell'IA, è tipicamente un test o un insieme di test progettati per valutare le prestazioni di un modello o di un algoritmo di intelligenza artificiale in compiti specifici. Questo spesso include l'uso di uno o più dataset standardizzati su cui diversi modelli possono essere addestrati e valutati, ma va oltre alla mera disponibilità di dati. Il concetto di benchmark incorpora anche metriche di valutazione specifiche, criteri e, a volte, l'ambiente software/hardware per garantire che le prestazioni possano essere confrontate equamente tra differenti approcci. Mentre un dataset può essere utilizzato come parte di un benchmark, quest'ultimo è un concetto più ampio che include non solo i dati, ma anche le procedure e le metriche per la valutazione delle prestazioni.
| Nome | Sigla | AnnoDiCreazione | |
|---|---|---|---|
| An Evaluation Dataset for Intent Classification and Out-of-Scope Prediction (CLINC150) | An Evaluation Dataset for Intent Classification and Out-of-Scope Prediction | CLINC150 | 2019 |
| BABILong | BABILong | 2024 | |
| Bilingual Evaluation Understudy (BLEU) | BiLingual Evaluation Understudy | BLEU | 2002 |
| BoolQ | Boolean Questions | BoolQ | 2019 |
| Cross-lingual Transfer Evaluation of Multilingual Encoders (XTREME) | Cross-lingual Transfer Evaluation of Multilingual Encoders | XTREME | 2020 |
| Discrete Reasoning Over Paragraphs (DROP) | DROP | DROP | 2019 |
| DocRED: A Large-Scale Document-Level Relation Extraction Dataset | A Large-Scale Document-Level Relation Extraction Dataset | DocRED | 2019 |
| GSM8K | Grade School Math 8K | GSM8K | 2022 |
| General Language Understanding Evaluation (GLUE) | General Language Understanding Evaluation | GLUE | 2018 |
| HMDB: a large human motion database | A large human motion database | HMDB | 2011 |
| HellaSwag | HellaSwag | HellaSwag | 2019 |
| HumanEval | HumanEval | 2021 | |
| ImageNet Large Scale Visual Recognition Challenge | ImageNet Large Scale Visual Recognition Challenge | ILSVRC | 2012 |
| LAION-5B | Large-scale Artificial Intelligence Open Network-5 Billion | LAION-5B | 2021 |
| LongAlign | LongAlign | 2024 | |
| MATH | MATH | 2021 | |
| MBPP | Mostly Basic Programming Problems | MBPP | 2021 |
| MMLU | Massive Multitask Language Understanding | MMLU | 2021 |
| MS COCO | Microsoft Common Objects in Context | MS COCO | 2014 |
| Microsoft Machine Reading Comprehension (MS MARCO) | |||
| Mind2Web | Mind2Web | Mind2Web | 2023 |
| NaturalQuestions | NaturalQuestions | 2019 | |
| QuAC | Question Answering in Context | QuAC | 2018 |
| SQuAD | Stanford Question Answering Dataset | SQuAD | 2018 |
| Schema di Winograd | |||
| Semantic Textual Similarity (STS) | Semantic Textual Similarity | STS | 2012 |
| UCF101 - Action Recognition Data Set | Action Recognition Data Set | UCF101 | 2013 |
| WinoGrande | WinoGrande | 2019 |
Pubblicazioni
Le Pubblicazioni includono articoli, libri, paper di conferenze legati all'IA.
Concetti
I concetti includono metodi, strategie, e procedure impiegate nella costruzione e ottimizzazione di modelli e architetture IA.