Pagine più richiamate
Vengono mostrati sotto 50 risultati dal 1 al 50.
- Fine-tuning (15 collegamenti)
- Modello linguistico di grandi dimensioni (11 collegamenti)
- OpenAI (11 collegamenti)
- Transformer (10 collegamenti)
- Reti Neurali Convoluzionali (CNN) (9 collegamenti)
- BERT (9 collegamenti)
- Funzione Obiettivo (loss) (9 collegamenti)
- Reti neurali (9 collegamenti)
- Immagini (8 collegamenti)
- Stable Diffusion (7 collegamenti)
- Long Short-Term Memory (LSTM) (6 collegamenti)
- Yoshua Bengio (6 collegamenti)
- Classificazione (6 collegamenti)
- Recurrent Neural Network (RNN) (6 collegamenti)
- Modelli Linguistici (6 collegamenti)
- Attention (Machine Learning) (6 collegamenti)
- Logit (Reti Neurali) (6 collegamenti)
- Masked-Language-Modeling (MLM) (6 collegamenti)
- Embeddings (6 collegamenti)
- Rete Neurale Ricorrente (RNN) (6 collegamenti)
- Retropropagazione (5 collegamenti)
- GPT-3 (5 collegamenti)
- Transformer (Architettura di Deep Learning) (5 collegamenti)
- Allucinazione (5 collegamenti)
- Mistral (5 collegamenti)
- Chain of Thought (5 collegamenti)
- Generative Pretrained Transformer (GPT) (4 collegamenti)
- Sequence to Sequence (seq2seq) (4 collegamenti)
- Jeff Wu (4 collegamenti)
- ChatGPT (4 collegamenti)
- 2023 (4 collegamenti)
- Function Calling (4 collegamenti)
- MMLU (4 collegamenti)
- Luke Zettlemoyer (4 collegamenti)
- Generazione (4 collegamenti)
- Llama (4 collegamenti)
- Rete Neurale Artificiale (ANN) (4 collegamenti)
- SOTA (4 collegamenti)
- Sandhini Agarwal (4 collegamenti)
- Sequenze (4 collegamenti)
- Apprendimento automatico (4 collegamenti)
- Causal Language Modeling (CLM) (4 collegamenti)
- LoRA (4 collegamenti)
- Rete Neurale Feed-Forward (FNN) (4 collegamenti)
- Amanda Askell (4 collegamenti)
- One-hot encodings (4 collegamenti)
- SQuAD (4 collegamenti)
- Attention Is All You Need (2017) (4 collegamenti)
- Softmax (4 collegamenti)
- Efficient Estimation of Word Representations in Vector Space (3 collegamenti)