Informazioni per "Dataset di Preferenze"

Informazioni di base

Titolo visualizzatoDataset di Preferenze
Criterio di ordinamento predefinitoDataset di Preferenze
Lunghezza della pagina (in byte)762
ID namespace0
ID della pagina90
Lingua del contenuto della paginait - italiano
Modello del contenuto della paginawikitesto
Indicizzazione per i robotConsentito
Numero di redirect a questa pagina0
Conteggiata come una pagina di contenuto

Protezione della pagina

ModificaAutorizza tutti gli utenti (infinito)
SpostamentoAutorizza tutti gli utenti (infinito)
Visualizza il registro di protezione per questa pagina.

Cronologia delle modifiche

Creatore della paginaAlesaccoia (discussione | contributi)
Data di creazione della pagina15:41, 4 mar 2024
Ultimo contributoreMindmakerbot (discussione | contributi)
Data di ultima modifica13:46, 17 ago 2024
Numero totale di modifiche8
Numero totale di autori diversi4
Numero di modifiche recenti (negli ultimi 90 giorni)0
Numero di autori diversi recenti0

Proprietà della pagina

Template incluso (1)

Template utilizzato in questa pagina:

SEO properties

Descrizione

Contenuto

Titolo della pagina: (title)
This attribute controls the content of the <title> element.
Preferences Dataset
Title mode (title_mode)
Ulteriori informazioni
append
Article description: (description)
This attribute controls the content of the description and og:description elements.
Un Preferences Dataset è un insieme di dati utilizzato per ottimizzare il modello di reward nel contesto del Reinforcement Learning From Human Feedback (RLHF). Per ottenere risultati ottimali, sono necessari almeno 500 campioni.
Parole chiave: (keywords)
This attribute controls the content of the keywords and article:tag elements.
  • dataset
  • preferenze
  • modello di reward
  • reinforcement learning
  • apprendimento automatico
  • intelligenza artificiale
  • RLHF
  • human feedback
Information from Extension:WikiSEO