Pre-training of Deep Bidirectional Transformers for Language Understanding

Da Wiki AI.
Versione del 10 apr 2024 alle 08:22 di Sara Maserati (discussione | contributi) (Creata pagina con "Titolo: Titolo::Pre-training of Deep Bidirectional Transformers for Language Understanding Anno di pubblicazione: AnnoDiPubblicazione::2019 Autori: Autori::Jacob Devlin; Autori::Ming-Wei Chang; Autori::Kenton Lee; Autori::Kristina Toutanova URL: URL::https://arxiv.org/pdf/1810.04805.pdf Topic: Topic::BERT migliora la comprensione del linguaggio naturale (NLP) attraverso il pre-training su un vasto corpus di testo, seguito da un fine-tuni...")
(diff) ← Versione meno recente | Versione attuale (diff) | Versione più recente → (diff)