Byte-Pair Encoding (BPE): differenze tra le versioni

Da Wiki AI.
Nessun oggetto della modifica
Nessun oggetto della modifica
Riga 1: Riga 1:
Nome inglese: [[NomeInglese::Byte-Pair Encoding]]
{{Template concetto
 
|NomeInglese=Byte-Pair Encoding
Sigla: [[Sigla::BPE]]
|Sigla=BPE
 
}}
 
 
 
Una tecnica di [[tokenizzazione]] , inventata originariamente per comprimere i testi, utilizzata spesso nei modelli [[transformer]] come [[GPT]].
Una tecnica di [[tokenizzazione]] , inventata originariamente per comprimere i testi, utilizzata spesso nei modelli [[transformer]] come [[GPT]].


Riga 14: Riga 11:


[[Category:concetto]]
[[Category:concetto]]
__SHOWFACTBOX__

Versione delle 16:23, 27 mag 2024

Byte-Pair Encoding (BPE)
Nome Inglese Byte-Pair Encoding
Sigla BPE

Una tecnica di tokenizzazione , inventata originariamente per comprimere i testi, utilizzata spesso nei modelli transformer come GPT.

Links

https://huggingface.co/learn/nlp-course/chapter6/5#byte-pair-encoding-tokenization

https://github.com/karpathy/minGPT/blob/master/mingpt/bpe.py