Byte-Pair Encoding (BPE): differenze tra le versioni

Da Wiki AI.
(Creata pagina con "Una tecnica di tokenizzazione , inventata originariamente per comprimere i testi, utilizzata spesso nei modelli transformer come GPT. === Links === https://huggingface.co/learn/nlp-course/chapter6/5#byte-pair-encoding-tokenization https://github.com/karpathy/minGPT/blob/master/mingpt/bpe.py")
 
Nessun oggetto della modifica
 
(6 versioni intermedie di 3 utenti non mostrate)
Riga 1: Riga 1:
{{Template concetto
|NomeInglese=Byte-Pair Encoding
|Sigla=BPE
}}
Una tecnica di [[tokenizzazione]] , inventata originariamente per comprimere i testi, utilizzata spesso nei modelli [[transformer]] come [[GPT]].
Una tecnica di [[tokenizzazione]] , inventata originariamente per comprimere i testi, utilizzata spesso nei modelli [[transformer]] come [[GPT]].


Riga 5: Riga 9:


https://github.com/karpathy/minGPT/blob/master/mingpt/bpe.py
https://github.com/karpathy/minGPT/blob/master/mingpt/bpe.py
{{#seo:
            |title=Byte-Pair Encoding
            |title_mode=append
            |keywords=tokenizzazione, modello linguistico, elaborazione del linguaggio naturale, PNL, GPT, transformer, codifica, compressione, testo
            |description=Il Byte-Pair Encoding (BPE) è una tecnica di tokenizzazione inizialmente pensata per la compressione del testo. Oggi è ampiamente utilizzata nei modelli transformer come GPT per elaborare il linguaggio naturale.
           
            }}

Versione attuale delle 13:46, 17 ago 2024

Byte-Pair Encoding (BPE)
Nome Inglese Byte-Pair Encoding
Sigla BPE

Una tecnica di tokenizzazione , inventata originariamente per comprimere i testi, utilizzata spesso nei modelli transformer come GPT.

Links

https://huggingface.co/learn/nlp-course/chapter6/5#byte-pair-encoding-tokenization

https://github.com/karpathy/minGPT/blob/master/mingpt/bpe.py