Byte-Pair Encoding (BPE): differenze tra le versioni

Da Wiki AI.
Nessun oggetto della modifica
Nessun oggetto della modifica
Riga 9: Riga 9:


https://github.com/karpathy/minGPT/blob/master/mingpt/bpe.py
https://github.com/karpathy/minGPT/blob/master/mingpt/bpe.py
{{#seo:
            |title=Byte-Pair Encoding
            |title_mode=append
            |keywords="tokenizzazione, modello linguistico, elaborazione del linguaggio naturale, PNL, GPT, transformer, codifica, compressione, testo"
            |description="Il Byte-Pair Encoding (BPE) è una tecnica di tokenizzazione inizialmente pensata per la compressione del testo. Oggi è ampiamente utilizzata nei modelli transformer come GPT per elaborare il linguaggio naturale."
           
            }}

Versione delle 13:29, 17 ago 2024

Byte-Pair Encoding (BPE)
Nome Inglese Byte-Pair Encoding
Sigla BPE

Una tecnica di tokenizzazione , inventata originariamente per comprimere i testi, utilizzata spesso nei modelli transformer come GPT.

Links

https://huggingface.co/learn/nlp-course/chapter6/5#byte-pair-encoding-tokenization

https://github.com/karpathy/minGPT/blob/master/mingpt/bpe.py