Dataset di Preferenze

Da Wiki AI.
Versione del 17 ago 2024 alle 13:46 di Mindmakerbot (discussione | contributi)
(diff) ← Versione meno recente | Versione attuale (diff) | Versione più recente → (diff)
Dataset di Preferenze
Nome Inglese Preferences Dataset
Sigla


Dataset utilizzato per il tuning del Modello di Reward nel contesto del Reinforcement Learning From Human Feedback (RLHF). Per i migliori risultati servono almeno 500 campioni.