Contributi di Alesaccoia
Utente con 1 426 modifiche. Utenza creata il 20 feb 2024.
24 mar 2024
- 17:1017:10, 24 mar 2024 diff cron +1 728 N General Language Understanding Evaluation (GLUE) Creata pagina con "Famoso benchmark che misura la qualità dei modelli di linguaggio in vari compiti di Natural Language Understanding === Dataset Contenuti === ==== Corpus of Linguistic Acceptability (COLA) ==== Misura l'accettabilità grammaticale delle frasi Input: "They caused him to become angry by making him." Target: 0 ==== Stanford Sentiment Treebank (SST-2) ==== Misura il sentiment Input: "that loves its characters and communicates something rather beautiful about human..." Etichetta: Modifica visuale
- 07:3907:39, 24 mar 2024 diff cron +2 348 BERT Nessun oggetto della modifica Etichetta: Modifica visuale
- 06:5906:59, 24 mar 2024 diff cron +420 BERT Nessun oggetto della modifica Etichetta: Modifica visuale
- 06:4706:47, 24 mar 2024 diff cron −2 BERT →Dataset di addestramento Etichetta: Modifica visuale
- 06:4606:46, 24 mar 2024 diff cron +17 BERT Nessun oggetto della modifica Etichetta: Modifica visuale
- 06:4506:45, 24 mar 2024 diff cron +579 BERT Nessun oggetto della modifica Etichetta: Modifica visuale
- 06:4406:44, 24 mar 2024 diff cron +10 N File:BERT input .png Nessun oggetto della modifica attuale
- 06:3806:38, 24 mar 2024 diff cron +3 633 BERT Nessun oggetto della modifica Etichetta: Modifica visuale
- 06:3806:38, 24 mar 2024 diff cron +13 N File:BERT ENCODING.png Nessun oggetto della modifica attuale
- 06:1006:10, 24 mar 2024 diff cron +127 BERT Nessun oggetto della modifica Etichetta: Modifica visuale
- 06:0706:07, 24 mar 2024 diff cron −87 BERT Nessun oggetto della modifica Etichetta: Modifica visuale: commutato
- 06:0606:06, 24 mar 2024 diff cron +2 614 BERT Nessun oggetto della modifica Etichetta: Modifica visuale: commutato
23 mar 2024
- 20:3720:37, 23 mar 2024 diff cron −2 461 Fine-tuning Nessun oggetto della modifica
- 20:3420:34, 23 mar 2024 diff cron +22 BERT Nessun oggetto della modifica
- 20:3420:34, 23 mar 2024 diff cron −9 Modello linguistico di grandi dimensioni Nessun oggetto della modifica
- 20:3320:33, 23 mar 2024 diff cron +735 N Transformer (Architettura di Deep Learning) Creata pagina con "Architettura proposta originariamente sul paper Attention Is All You Need (2017), composta da un Encoder e un Decoder. * Vengono chiamati "Transformer Encoder" i modelli bidirezionali (Encoder-Only) come BERT, che utilizzando come obiettivo di pre-training il Masked-Language-Modeling (MLM), necessitano che la rappresentazione fonda sia il contesto a destra che quello a sinistra del token che dev'essere predetto, quindi utilizzano una self-attention bidirezio..." Etichetta: Modifica visuale: commutato
- 20:1020:10, 23 mar 2024 diff cron +80 Attention Is All You Need (2017) Nessun oggetto della modifica
- 20:0920:09, 23 mar 2024 diff cron +587 N BERT Creata pagina con " === Links === [https://arxiv.org/pdf/1810.04805.pdf BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding (24/05/2019)] [https://arxiv.org/pdf/1905.05583.pdf How to Fine Tune Bert for Sequence Classification?] https://www.kaggle.com/discussions/questions-and-answers/86510 [https://arxiv.org/abs/1908.10084 Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks (SBERT)]: modello successivo a BERT con migliori risultati sui benchmar..." Etichetta: Modifica visuale
- 19:4519:45, 23 mar 2024 diff cron +144 N Semantic Textual Similarity (STS) Creata pagina con "Misura di somiglianza tra frasi. BERT, RoBERTa e GLoVE hanno miglioraro in maniera decisiva questo benchmark Category:Benchmark"
21 mar 2024
- 17:1617:16, 21 mar 2024 diff cron +792 Attention Is All You Need (2017) Nessun oggetto della modifica Etichetta: Modifica visuale
- 17:0617:06, 21 mar 2024 diff cron +655 N Attention Is All You Need (2017) Creata pagina con "Tradizionalmente, nei task di automatic translation, è stato utilizzato il modello Sequence To Sequence, in cui la rappresentazione della frase Il gatto mangia il topo viene codificata in una rappresentazione vettoriale - un embedding - attraverso Long Short-Term Memory (LSTM) , prendendo il valore del layer nascosto al termine della codifica della frase. Ogni token viene quindi, '''uno alla volta''': *..." Etichetta: Modifica visuale: commutato
18 mar 2024
- 19:5419:54, 18 mar 2024 diff cron +114 Rete Neurale Ricorrente (RNN) →Link
- 19:5119:51, 18 mar 2024 diff cron +373 Long Short-Term Memory (LSTM) Nessun oggetto della modifica Etichetta: Modifica visuale
- 19:4419:44, 18 mar 2024 diff cron +41 N LSTM Alesaccoia ha spostato la pagina LSTM a Long Short-Term Memory (LSTM) attuale Etichetta: Nuovo reindirizzamento
- 19:4419:44, 18 mar 2024 diff cron 0 m Long Short-Term Memory (LSTM) Alesaccoia ha spostato la pagina LSTM a Long Short-Term Memory (LSTM)
- 19:2519:25, 18 mar 2024 diff cron +75 Rete Neurale Ricorrente (RNN) →Link
- 18:5818:58, 18 mar 2024 diff cron +13 Sequence to Sequence Learning with Neural Networks (12/12/2014) Nessun oggetto della modifica Etichetta: Modifica visuale
- 18:5818:58, 18 mar 2024 diff cron +162 N Sequence to Sequence Learning with Neural Networks (12/12/2014) Creata pagina con "Famoso paper introduttivo dei modelli ''sequence-to-sequence'' per i task di traduzione automatica Category:pubblicazione https://arxiv.org/abs/1409.3215" Etichetta: Modifica visuale: commutato
- 18:5618:56, 18 mar 2024 diff cron +357 N Bilingual Evaluation Understudy (BLEU) Creata pagina con "Valutazione bilingue in italiano. Nei task di traduzione automatica o di generazione del testo, indica il grado di somiglianza del testo del candidato rispetto ai testi di riferimento, con valori più vicini a uno che rappresentano testi più simili. Il punteggio BLEU fornisce una valutazione complessiva della qualità del modello. Category:benchmark" Etichetta: Modifica visuale: commutato
- 16:2016:20, 18 mar 2024 diff cron +1 Masked-Language-Modeling (MLM) →Links Etichetta: Modifica visuale
- 16:2016:20, 18 mar 2024 diff cron +286 Masked-Language-Modeling (MLM) Nessun oggetto della modifica
- 16:1916:19, 18 mar 2024 diff cron +560 N Masked-Language-Modeling (MLM) Creata pagina con "E' uno dei possibili obiettivi nell'ambito dell'addestramento dei Modelli di Linguaggio. Consiste nel mascherare alcuni dei token di input (circa il 15%) <source lang="python"> query = "Good morning [MASK], have a [MASK] day" inp = tokenizer(query,return_tensors='tf') mask_loc = np.where(inp.input_ids.numpy()[0] == 103)[0].tolist() out = model(inp).logits[0].numpy() predicted_tokens = np.argmax(out[mask_loc],axis=1).tolist() tokenizer.decode(predicted_tokens) #outputs..."
- 15:1615:16, 18 mar 2024 diff cron +43 N Arc C Alesaccoia ha spostato la pagina Arc C a AI2 Reasoning Challenge (Arc C) attuale Etichetta: Nuovo reindirizzamento
- 15:1615:16, 18 mar 2024 diff cron 0 m AI2 Reasoning Challenge (Arc C) Alesaccoia ha spostato la pagina Arc C a AI2 Reasoning Challenge (Arc C)
- 15:1615:16, 18 mar 2024 diff cron −1 Adversarial Filtering (AF) Nessun oggetto della modifica
- 15:1515:15, 18 mar 2024 diff cron +98 N CLINC150 Alesaccoia ha spostato la pagina CLINC150 a An Evaluation Dataset for Intent Classification and Out-of-Scope Prediction (CLINC150) attuale Etichetta: Nuovo reindirizzamento
- 15:1515:15, 18 mar 2024 diff cron 0 m An Evaluation Dataset for Intent Classification and Out-of-Scope Prediction (CLINC150) Alesaccoia ha spostato la pagina CLINC150 a An Evaluation Dataset for Intent Classification and Out-of-Scope Prediction (CLINC150)
- 15:1415:14, 18 mar 2024 diff cron +53 N DROP Alesaccoia ha spostato la pagina DROP a Discrete Reasoning Over Paragraphs (DROP) attuale Etichetta: Nuovo reindirizzamento
- 15:1415:14, 18 mar 2024 diff cron 0 m Discrete Reasoning Over Paragraphs (DROP) Alesaccoia ha spostato la pagina DROP a Discrete Reasoning Over Paragraphs (DROP)
- 15:0615:06, 18 mar 2024 diff cron +58 Cross-lingual Transfer Evaluation of Multilingual Encoders (XTREME) Nessun oggetto della modifica Etichetta: Modifica visuale
- 15:0515:05, 18 mar 2024 diff cron +10 N File:IOB FORMAT.png Nessun oggetto della modifica attuale
- 15:0515:05, 18 mar 2024 diff cron +24 Cross-lingual Transfer Evaluation of Multilingual Encoders (XTREME) Nessun oggetto della modifica
- 15:0515:05, 18 mar 2024 diff cron +258 N Cross-lingual Transfer Evaluation of Multilingual Encoders (XTREME) Creata pagina con "Chiamato anche WikiANN o PAN-X, è un dataset di articoli Wikipedia in vari linguaggi. Ogni articolo è annotato con LOC (luogo), PER (persona), ORG (organizzazione) nel formato inside-outside-bginning (IOB2) == Links == https://arxiv.org/abs/2003.11080"
- 12:4912:49, 18 mar 2024 diff cron +39 m Metodi di Decoding Nessun oggetto della modifica Etichetta: Modifica visuale
- 12:4812:48, 18 mar 2024 diff cron +6 m Modello Generativo Nessun oggetto della modifica Etichetta: Modifica visuale
- 12:4812:48, 18 mar 2024 diff cron +566 N Modello Generativo Creata pagina con "Un modello generativo stima la probabilità P(x) di avere l'osservazione x, a differenza di modello disctiminativo stima la probabilità P(y|x), cioè la probabilità che x abbia l'etichetta y. Per esempio, nella generazione di immagini, possiamo allenare un modello discriminativo che ci dica la probabilità che un determinato dipinto sia di Van Gogh. Un modello generativo, invece, può allenato in modo totalmente diverso per generare dei pixel che abbiano un'alta proba..."
- 09:3909:39, 18 mar 2024 diff cron +21 Modello linguistico di grandi dimensioni Nessun oggetto della modifica
- 09:3909:39, 18 mar 2024 diff cron −1 Modello linguistico di grandi dimensioni Nessun oggetto della modifica
- 09:3909:39, 18 mar 2024 diff cron +24 Modello linguistico di grandi dimensioni Nessun oggetto della modifica
- 09:3809:38, 18 mar 2024 diff cron +664 N Modello linguistico di grandi dimensioni Creata pagina con "Classe di Modelli di Linguaggio emersi in seguito alla pubblicazione dell'architettura transformer nel 2017, hanno operato una rivoluzione nel campo dell'NLP. In particolare: * NLP era soprattutto NLU (understanding), e poca generazione * La multi-modalità era poco presente * La maggior parte dei modelli era basata su regole invece che su deep learning Sono un evoluzione di RNN -> LSTM -> GRU, delle loro varianti bidirezionali e "stacked", delle architetture encod..." Etichetta: Modifica visuale